Informace (zlat.in-formatio, utváření, ztvárnění) je velmi široký, mnohoznačnýpojem, který se užívá v různých významech. V nejobecnějším smyslu je informace chápána jakoúdaj o dění v reálném světě. Informace snižuje nejistotu (neurčitost znalosti) člověka o dění v jisté části reálného světa. Cestou ke snížení té nejistoty jepoznání tj. získání informace o oné části reálného světa. Množství informace lze charakterizovat tím, jak se jejím získáním změnila míra nejistoty příjemce.[1] O měření množství informace je pojednáno níže v odst. Kvantifikace.
- V běžné řeči:
- informace jako vědění, které lze předávat, jako obsah zprávy či sdělení;
- informace (plurál) – místo, kde se lze o něčem informovat.
- Vinformatice se operuje s řetězci znaků (Hartley), které lze vysílat, přijímat, uchovávat a zpracovávat technickými prostředky. Příjem znaku (zprávy) dodaného sdělovacím zařízením, snižuje nejistotu příjemce o tom, který ze znaků mohl obdržet. Množství informace je rozdíl mezi neurčitostí příjemcovy informace před a po přijetí zprávy o obdrženém znaku.
Latinskéinformatio znamená původně vtištění formy či tvaru, utváření. Slovo se všakmetaforicky používalo pro „utváření mysli“ – učení a vzdělávání – a odtud dalším významovým posunem mohlo znamenat i sdělení, zprávu. Odtud pochází slovoinformátor, doložené od 16. století. Zkrácený tvarinfo vznikl až ve 20. století v angličtině. Vědecký zájem o informaci začíná také až ve 20. století v souvislosti s elektronickou komunikací a počítači a na druhé straně se studiem obecného uspořádání, struktur a kódů.
Cesta k definici:Pojem může být definován několika způsoby, jedním z nich je vytyčení určujícími rysy –invariantními příznaky entity (reálného či abstraktního světa) ke které odkazuje. Ty z invariantních příznaků, které jsou sdělitelné, lze použít pro vytyčení-definici pojmu. Invariantní příznaky pojmu informace jsou uvedeny v následujících odstavcích, a jejich souhrn tvořícídefinici je:
Informace:
- Je abstraktní entita (myšlenkový konstrukt).
- Snižuje nejistotu (neurčitost znalosti) člověka o dění v jisté části reálného světa.
- Jejím zdrojem jepoznání.
- Lze ji ukládat, transportovat a zpracovávat k získání jiné, pro daný účel požadované informace.
- Vždy je vázána na jazyk, který s ní umožňuje provádět výše uvedené operace.
- Člověku umožňuje jiný pohled na dění v reálném světě (vidění jiných jevů a souvislostí), než umožňuje působení interakcí, jež je klíčové pro přírodní i technické vědy.
Informace jeabstraktní entita,[2][3] pro její uchopení – pro archivaci (pamatování), a tak i šíření (sdělování), nebo pro její zpracování – je nutný nějaký „kontejner“, říká se mujazyk, do něj jevtisknuta. Jazyk je abstraktní struktura (řád mezi vhodnýmiprimitivy),[4][5] která pro aplikaci musí být materializována vhodnou strukturou hmoty či energie. Informace je uchopovací nástroj člověka (podobně jako mnohé jiné, např. souřadnice prostoru či jeho metrika, kauzalita a další). Pojem informace má být odpovědí na otázku, co to (jakou entitu) získáváme poznáváním (reálného světa), co ukládáme, když pamatujeme, co transportujeme, když sdělujeme. Říkáme, že informaci, ale ve skutečnosti jen ten (přírodou zapečetěný) kontejner – jazykové konstrukty.
Obvykle rozlišujeme elementární a komplexnější informaci. Elementárním říkáme data (ze smyslových orgánů člověka, ze snímačů, čidel a měřících zařízení), komplexnějším, vybudovaným na rozpoznaných souvislostech mezi daty, říkáme znalosti.
Důvody proč informace vyžaduje kontejner – jazyk jsou dva:
- Princip lidské komunikace, kterým člověka obdařila příroda, neboť jazyk je v ní zásadní součástí. V tomto případě jazykové konstrukty – formy (slova, věty) slouží jakopointery (ukazatelé) do vnitropsychického kognitivního modelu příjemce zprávy, umožňující mu přiřadit přijatému jazykovému konstruktu – formě (slovu, větě) informaci, kterou považuje za nejvhodnější. Toto přiřazení se nazývákonotace a znamená, že příjemce zprávy jazykové formě porozuměl, přiřadil jivýznam. (toto je jen část potřebná pro vysvětlení funkce jazyka, celý princip lidské komunikace viz níže: Přenos informace – komunikace)
- Archivaci (pamatování), šíření i zpracování informace nelze provést jinak, než využitím procesů reálného (materiálního) světa. Má-li se v reálném světě něco dít, musejí probíhat interakce. Znamená to, že informaci, která je abstraktní entitou (není aktérem), je třeba včlenit do reálného světa interakcí, učinit ji aktérem v něm. Lze to pouze prostřednictvím jazyka (informace jako abstraktní entita je jinak neuchopitelná), který je nositelem informace výše popsaným způsobem (tedy tak, že jeho konstrukty slouží jako pointery). Proto všechny výše zmíněné operace s informací, jsou ve skutečnosti operacemi s kontejnerem – jazykem.
Jazyk má vzhledem k informaci funkci prostředníka, který jí umožňuje (propůjčuje ji své vlastnosti) přestoupit z jednoho prostředí do jiného prostředí, z lidské psýchy (biochemických a elektrochemických interakcí probíhajících v lidském mozku) do vnějšího reálného světa interakcí a obráceně. Takovému prostředníkovi se někdy říkávehikulum. Takto označuje vnější sdělovací jazyk např. sémiotik Charles William Morris.[6] Jazyk materializací se dostávající do světa interakcí, může být i vykonavatelem příkazu – informace (např. vyvolá pohyb ramena robota), aspoň tak to někdy chceme vidět, avšak fyzika to vidí jako řetěz interakcí.
Tak i Shannonova entropie se týká jazyka (i když v tomto případě na jeho abstraktní úrovni), nikoli informace,[7] a je mírou neurčitosti výskytu znaků-jazykových konstruktů ve zprávě.[8] Jaké informace ony jazykové konstrukty vyvolávají v psýše příjemce zprávy, je v tomto případě mimo hranice diskursu. Někteří autoři mylně tvrdí, že Shannon ke své entropii došel z myšlenky stavící na tom, že některá informace je pro příjemce překvapivější či důležitější než jiná, a tak je lze kvantitativně ohodnotit. Avšak příjemce zprávy nelze vyzpovídat takovým způsobem, aby získané výsledky bylo možno použít pro přestup (použití) do exaktního světa (matematiky), ve kterém Shannon formuloval svoji entropii. Tento problém přenosu dat z lidské psýchy do exaktního světa je blíže popsán nafuzzy logika. Shannon se dostal tak blízko k entitě informace, jak to umožňuje exaktní věda. V Shannonově přístupu lze nalézt volnou paralelu s výše uvedenoupřekvapivostí obdržené informace. A to při jeho zkoumání informace obsažené v pravděpodobnostním rozdělení (viz Kvantifikace), kdy za překvapivější mohou být považovány výskyty jevů méně pravděpodobných, tedy méně očekávaných.
Je vidět jistá výjimečnost pojmu informace, neboť v podstatě, i to že informace existuje v lidské psýše, je lidská tvůrčí představa, ve skutečnosti je to výsledek biochemických a elektrochemických interakcí probíhajících v lidském mozku zajišťujících pamatování, sdělování i zpracování toho, čemu říkáme informace. Informace je tedy skutečně jen jiné vidění reálného světa, než vidění interakcí, jiná interpretace. Je lhostejné, jedná-li se o dění v lidském mozku či vně, v jiné části reálného světa. Je pro nás vžité, přijatelné a užitečné, že v mozku pamatujeme i zpracováváme informaci, tedy myslíme. Je tak např. možno studovat zákonitosti myšlení. Informace je pro člověka důležitý uchopovací nástroj – pojem.
Primárním zdrojem informace jepoznání. Je to zrození informace, ta před tím neexistovala. Poznání je však možné jen se současným záznamem poznaného (informace) do jazyka, i v lidské psýše se předpokládají vnitropsychické jazyky. Poznání neposkytne samotnou informaci, ale její jazykové uchopení. Proto pro každé poznání musí být k dispozici adekvátníjazyk, buď se o to postarala příroda, nebo ho vytvořil člověk. Pokud takový jazyk neexistuje, musí být předem vytvořen vizExaktní věda,Věda, a musí být „na míru“ poznání, říká se adekvátní. Budování nových matematických disciplín, které nabízejí nové jazyky, jsou často impulzem pro nové možnosti poznání, např. zejména ve fyzice částic.
- Přirozené – filtrempoznání jevágnost – získanáinformace s inherentní vnitřní vágností. Jazyk je přirozený (neformální), jen ten je schopen, díky své vágní, subjektivní a emocionální interpretaci (říkáme jíkonotace) převzít informaci (svázanou s inherentní vágností) získanou přirozeným poznáním.
- Umělé,exaktní (Newton) – diskrétní filtr poznání – získaná informace s nulovou vnitřní vágností vizExaktní věda,Věda. Jazyk musí být formální – matematika, formální logika, programovací jazyky. Jen takovýjazyk je schopen reprezentovat informaci s nulovou vnitřní vágností interpretace, získanou exaktním poznáním. Výsledkem poznání je informace, jsou to rozpoznané přírodní zákony zapsané matematickým jazykem, jako vztahy mezi veličinami. Podle použitého jazyka se mu říká matematický model.
Poznamenejme, že se používá ještě poněkud jinak chápaný pojem zdroj informace ve schématu, kterému se říká Sdělovací kanál. Tam je zdroj informace jakékoli zvolené referenční místo, které pro daný úkol považujeme za to, ze kterého se informace šíří bez ohledu na způsob jejího získání. Může to být třeba místo na konstrukci letadla, ze kterého se radarový paprsek někam odráží, a pro danou úlohu řešenou z hlediska přenosu informace, je podstatné, co se děje od tohoto místa někam dále. Obvykle je to cesta odražené části paprsku do přijímací antény, přijímače a dále do řetězce zpracování této informace.
Podstata informace je jedna, má však dvě výše uvedené nezaměnitelné modifikace (typy) dané vazbou s inherentní vnitřní vágností (neurčitostí). Informace získaná poznáním obohatí kognitivní (znalostní) model člověka, zmenší jeho pochybnosti o dění v jisté části reálného světa, sníží tak jeho nejistotu, původně strach z neznáma, z hladové šelmy v buši, zvýší jeho šanci na přežití. Je to ale jiný druh nejistoty, než je vágnost – nástroj (filtr) přirozeného lidského poznání. Souvisí s mírou poodhalení té věčně zamlžené „pravdy“ hledané člověkem. Exaktní svět je obvykle rozlišuje způsobem reprezentace: vágnostfuzzy nástroji, nejistotu poznánístochastickými nástroji. Hypotéza charakterizující informaci jako entitu odstraňující nejistotu o dění v reálném světě, se stala dominantní, a je na ni postavena teorie informace.
Informace je abstraktní entita (kdybychom ji byli schopni měřit, byla byveličinou) světa kognitivních (znalostních) modelů reálného světa tvořených člověkem. Informace vznikne poznáním (je to její zdroj), pokud by člověk neměl schopnost poznání, nebyla by informace. Lidské abstraktní konstrukce mimo lidský svět neexistují, některé z nich lze uchopit (formulovat) vnějším sdělovacím jazykem, příkladem je matematika, geometrie, architektonické náčrty, skulptury a jiné jazykové útvary.
Prostředníkem mezi reálným světem a informací o něm je poznání vizVěda. Při umělém exaktním poznání je možno zřetelně vidět krok poznání od materiálního světa k informaci o něm. Slouží k tomu vědou rozpoznaný, v různých oborech patřičně formulovaný zákon akce a reakce, někdy poněkud skrytý v použitém matematickém nástroji. Umožňuje z materiálního světa interakcí, vytvořit model, v němž jsou interakce rozpleteny a tak osamostatněny na jednostranně působících akce a reakce. V okamžiku osamostatnění (je to přelom z reálného světa do znalostního modelu – získané informace) se otevírá přístup k informaci. V popisu reálného světa exaktní vědou, je získaná informace v podobě veličin (fyzikální, chemické, biologické ...) svázaných matematickými vztahy, popisujícími přírodní zákony, tedy v podobě matematického či počítačového modelu daného objektu nebo jevu. K zobrazení rozpletených interakcí názorně slouží často používané orientované grafy, nazývané bloková schémata,[9] či grafy signálových toků.[10][11] Rozpletené interakce se v grafové reprezentaci zobrazují jako jednosměrné akce a reakce tvořícízpětnovazební smyčky.
V přirozeném poznání neodstranitelné mlhy vágnosti, tento zvrat v poznání (od reality k informaci) již tak názorný není.
Vidění reálného světa jako světa interakcí, je obecný model jeho vidění současnou vědou (např.[12]). Vidění toku informace v něm, je speciální pohled, vytvořený při studiu principů zpětné vazby a sdělovacích soustav a rozvinutý v kybernetice, je to kybernetické vidění. Způsob jiného vidění spočívá v tom, že se pozoruje něco, co plyne odněkud někam (třeba jako nějaká vlna na vodní hladině, v níž se skrývá mnoho interakcí, které se však nevnímají), tedy jednosměrně, což u interakcí neplatí. Takový pohled je v některých případech vhodnější pro pochopení dění, vidění jiných souvislostí. Názorně k tomu slouží výše zmíněné orientované grafy: bloková schémata a grafy signálových toků. Tyto grafy vytvořené přepisem matematického modelu do grafického schématu, svojí názorností přímo nabízejí použít vhodnější z obou interpretací.
Obou interpretací se již dlouhý čas vědomě používá v návrhu soustav sdělovacích a soustav automatického řízení[13][14] v teorii elektrických obvodů, ale někdy i v počítačové simulaci různých jevů materiálního světa. Informace je jen jiný pohled na materiální dění, jiná interpretace. Ustavila se na ní ikybernetika,[15] těžící i z toho, že tato interpretace je použitelná napříč obory. Třeba interakci čichového orgánu brouka s molekulami feromonu, můžeme chápat jako informaci, je to ale interakce. Podobně můžeme říci, že genetický kód je informací pro vývoj buňky, přitom je jedním článkem z řetězce biochemických interakcí. Je možno ale uplatnit (modelovou) interpretaci, že je nositelem informace, pokud je to výhodnější pro pochopení jevu. Vhodně strukturované elektromagnetické pole, detekované a zpracované mobilním telefonem můžeme interpretovat jako SMS zprávu, nebo jako řetězec interakcí. Člověk má ve svém těle řadu receptorů, a tak jeho centrální nervová soustava může zpracovávat i elektrochemické a biochemické veličiny vypovídající o jeho tělesných stavech – pocitech z nich, což může chápat jako informaci.
Tak ientropie, jako každý aplikovaný matematický vztah, může mít řadu různých interpretací. Není proto vhodné apriori svazovat interpretaci entropie v informačním pojetí s fyzikální interpretací. To by mělo smysl, pokud by se hledala nějaké analogie mezi nimi, a plynuly z toho nové poznatky. Snaha o tuto vazbu vznikla spíš jako ozvěna historie Shannonovy práce, ústící ve vztah entropie, se stejnou matematickou formou, k níž došla termodynamika. Bez bližšího upozornění může vznikat klamný dojem, že informace není pouze lidský uchopovací nástroj a náhled na model dění v reálném světě, ale aktér působící v něm místo interakce. Zde je vhodné připomenout, že v době, kdy Shannon svoji hypotézu matematicky formuloval, existoval jediný matematický nástroj reprezentace neurčitosti, a to byla stochastika, kterou pro model činnosti odesílatele znaků použil. Tedy jako poznámka: Dnes, v r. 2021, matematika nabízí i jiné reprezentace jako fuzzy množiny afuzzy logiku, a kandidátem mohou být ihrubé množiny, a další nástroje. Pokud by Shannon použil jinou variantu reprezentace neurčitosti, byl by získaný vztah jiný – formálně jiný jazykový útvar – matematický vztah. Do jaké míry by Shannonova entropie a vztah získaný jinou variantou matematické reprezentace neurčitosti byly ekvivalentní, nebo který typ reprezentace je vhodnější, by se pak mohlo uvažovat.
Je nutno pečlivě rozlišovat, kdy mluvíme o reálném světě interakcí, a kdy o jeho kognitivním modelu, a kdy máme na mysli jakou interpretaci. Jinak vznikají myšlenkové mišmaše (vedoucí k nedorozuměním), občas doprovázené grafickými mišmaši.
Jednou z podivných myšlenek jeCapurrovo trilema[16], kdy se autor pídí po podstatě informace, ale rozděluje informaci na tři typy podle materiální realizace jazyka, a podle vztahu k člověku. Zda ji člověk používá ke komunikaci nebo zda je to informace mimo lidskou komunikaci, která zajišťuje běh reálného světa, např. informace z genetického kódu řídící vývoj buňky. Pokud by si všiml možných interpretací, ve výše zmíněných oborech, snadno by se zorientoval.
Informace a uspořádanost je téma, se kterým se lze občas setkat v literatuře.
Mezi uspořádaností (organizovaností, strukturou, řádem) a informací je dvoustranný vztah.
První je, že existuje struktura (jsme schopni ji rozpoznat), kterou umíme interpretovat (přiřadit význam), a tak získat informaci. V tomto případě struktura slouží jakojazyk, např. dendrologický řez, geologické vrstvy odkryté při těžbě kamene či písku, viditelné ve vzniklé stěně, rentgenový snímek lidského orgánu, např. plic, kde odborník dovede rozpoznat zdravou strukturu a strukturu napadenou infekcí, řád hledaný v elektromagnetickém záření zachyceném radioteleskopem, tištěný či v kameni vytesaný text.
Druhý je, kdy na základě informace (předpisu, projektu), má být vytvořena nějaká uspořádanost, struktura či řád v reálném světě, a tak se tam má provést požadovaná změna. To, jak už bylo výše řečeno (v odst. Informace a jazyk), znamená, že musíme zajistit takové působení interakcí v reálném světě, aby projektované dílo vzniklo. Takových příkladů je mnoho, tváření a obrábění kovů dle výkresové dokumentace, stavba počítačů, stavba domů, vyšívání vzorů látek dle zadaného předpisu, lisování gramofonových desek, ale i automatické řízení, kde asi nejznámějším jeWattův regulátor otáček. V posledním příkladu je řádem to, že otáčky parního stroje mají požadovanou (obsluha ji nastavuje) hodnotu, která se téměř nemění se zatížením stroje, či s momentálním výkonem kotle (tlakem páry) vizZpětná vazba.
Občas se v literatuře objevuje myšlenka spojovat definici informace s pojmem uspořádanosti či organizace. V diplomové práci Filipa Zlámala[8] je názorný příklad, že stavět definici pojmu informace na pojmu uspořádanosti či organizace je chybné, neboť pojem uspořádanosti není objektivně definovatelný. Tento pramen a rovněž další prameny[17][18] umožňují, hlouběji nahlédnout do problematiky entropie a její interpretace.
Tento odstavec ukazuje cestu od prvních myšlenek (Hartley), jak kvantifikovat informaci, po Shannonovo epochální stanovení množství informace jako míry odstranění neurčitosti. Tato cesta byla otevřena tak, že místo nástrojově neuchopitelné informace se používají její nástrojově uchopitelní nositelé – znaky (jazykové konstrukty). Od jejich úlohy nositelů „vtištěné“ informace je však zcela odhlédnuto, a sleduje se pouzeřád, ve kterém se znaky objevují jejich příjemci. V tomtořádu je obsažena (je jím určena) předmětná informace, která je nadále ústředním pojmem (formální) informatiky, a tak předmětem zkoumání.[19] Podstatné je, že při této záměně je zachován princip, že příchody znaků příjemci snižují neurčitost toho, jaký znak by mohl přijít, podobně jako získání informace příjemci snižuje neurčitost jeho znalosti o dění v jisté části reálného světa.
Z oboru techniky sdělování (přenosu) informace vyšel první pokus (Ralph Hartley 1928) nalézt metodu měření množství přenesené informace,[20] tak i rychlost, jako množství informace přenesené za jednotku času. Hartley přišel s myšlenkou, kdy měření množství informace je založeno na předpokladu (modelu), že odesílatel zprávy má k dispozici (konečnou) množinu znaků např. anglickou abecedu, ze kterých vytváří posloupnosti, a ty odesílá. Pro matematický popis procesu přenosu odesílaných znaků, bylo třeba nalézt obecný matematický model činnosti odesílatele. Shannon za podpory matematika Warrena Weavera navrhl model činnosti odesílatele tak, že pro účely kvantifikace informace budou sekvence znaků vytvářené odesílatelem modelovány náhodným jevem, aniž by se tím porušil princip snižování neurčitosti při jejich příjmu.Řád, jímž je pak informace určena, jerozdělení pravděpodobnosti onoho náhodného jevu. V takovém pojetí je zároveň k dispozici nástroj umožňující vyjádřit (Shannonovu) ideu, že získání informace znamená snížení neurčitosti: Informace je údaj o tom, že nastal jev z množiny možných náhodných jevů, což příjemci sníží neurčitost znalosti o tom, který z jevů mohl nastat.
Rozhodnutí, že místo nástrojově neuchopitelné informace se budou používat nástrojově uchopitelné jazykové konstrukty, tak zachovává princip, že se jedná o snižování neurčitosti znalostí příjemce:
- Získání informace snižuje nejistotu znalostí příjemce o dění v jisté části reálného světa. (Uznávaná hypotéza o podstatě informace i lidské vnímání podstaty informace)
- Příjem znaku (jazykové konstrukce) dodaného sdělovacím zařízením, snižuje nejistotu příjemce o tom, který znak mohl obdržet.A poněkud abstraktněji: Informace je údaj o tom, že nastal jev z množiny možných náhodných jevů, což příjemci sníží neurčitost znalosti o tom, který z jevů mohl nastat.
A tato poslední věta je již shannonovské pojetí, kdy Shannon (ve své práci[21]) z něj vychází jeho formalizovaným (matematickým) vyjádřením (Shannon citace):
Předpokládejme, že máme množinu možných událostí, jejichž pravděpodobnost výskytu je
- p1, p2, ... pn.
Tyto pravděpodobnosti jsou známy, ale to je vše, co víme o tom, která událost nastane. Můžeme najít měřítko toho, kolik „volby“ je zahrnuto ve výběru události nebo jak nejistí jsme ohledně výsledku?
Pokud taková míra existuje, řekněme veličinaH (p1, p2,…, pn), je rozumné požadovat od ní následující vlastnosti:
- H by mělo být spojité vpi.
- Pokud jsou všechna pi stejná,pi = 1 /n, pakH by měla být monotónní rostoucí funkce proměnnén. U stejně pravděpodobných událostí existuje větší výběr nebo nejistota, při rostoucím počtu možných událostí.
- Pokud je volba rozdělena na dvě po sobě jdoucí volby, původníH by měl být vážený součet jednotlivých hodnotH.
Shannon dokazuje, že jediná funkce, která výše uvedené vlastnosti splňuje, je tvaru

kdeK je kladná konstanta, jejíž hodnota určuje měřítko jednotek (pro měření v řádu jednotek bitů se kladeK = 1), ve kterých se veličinaH udává, a log je logaritmická funkce, jejíž základ se položí roven2, pokud máH být udáváno v bitech.
Shannon formuloval problém nalezení míry informace pro konečný soubor pravděpodobností
- p1, p2,... pn
a Shannonovým cílem bylo zjistit, kolik neurčitosti je obsaženo v rozdělení pravděpodobnosti takového souboru. Pak veličinuH interpretoval jako míru informace, výběru a neurčitosti (measures of information, choice and uncertainty). Několik výkladů významu Shannonova vztahu proH, je uvedeno např. v práci[22], a též naInformační entropie.
Doplnění:
- Důvodem, proč Shannon svoji úlohu, kdy hledal míru informace (kvantifikaci) formuloval v exaktním světě, tedy nástroji matematiky, je, že kvantifikaci lze formulovat pouze v exaktním světě, neboť ve světě vágnosti lidské psýchy lze cokoliv kvantifikovat pouze vágně, subjektivně a emocionálně.
- Typ informace, o kterou se jedná v pojetí Hartleyho a následně Shannona, je určen tím, že je to informace reprezentovaná nástroji exaktního světa zde jazykem matematiky. Není to obecná informace, ale informace reprezentovaná formálním jazykem, takže to nemůže být informace jiného typu, než exaktní vizJazyk (lingvistika),Věda. Má tedy buď exaktní interpretaci (do reálného světa vizExaktní), nebo nemá žádnou, což je v matematice běžné. Nemůže to tedy být „lidská“ informace s inherentní vnitřnívágností, tu je schopna interpretovat pouze lidská psýcha vizkonotace. Lidská informace s inherentní vnitřní vágností, a exaktní informace s nulovou vnitřní vágností interpretace, mají společnou podstatu, snižují neurčitost v poznání příjemce a spolu tvoří veškerou informaci, kterou člověk používá.
- Jak na Shannonovu práci reagují lingvisté, je zřejmé z jejich stesků, že Shannon, na jejich zájmy ve své práci zapomněl:[23] Předchozí odstavec jim napoví, že Shannonova míra informace se týká pouze exaktní informace, a že lidská inherentně vágní informace a její případné měření spadá do kompetencekognitivní psychologie.
Důsledkem rozhodnutí uvažovat jazykové konstrukty místo informace, je pro kvantifikaci informace ten, že pokud jisté pomyslné množství informace vtiskneme do dvou jazyků s různou strukturou znaků, bude množství změřené informace obsažené v každém z jazyků jiné. Toto je důvod, který způsobil hledání jazykových struktur, které jsou schopny přenést více (té pomyslné) informace. Je to soutěž mezi jazyky s různou strukturou z hlediska vtisknuté informace, avšak ve fyzice, chemii, ....jsou hlediska jiná, tam je to hledání jazyka, který je schopen popsat zkoumaný jev. Jazyková struktura se dá uchopit způsobem, kterému se říkákódování, a vyvinul se tak obor kódování, hledání kódů potřebných vlastností např. přenášejících maximální množství informace, odolných vůči chybě v přenosu znaků na úkor množství užitečné informace apod. Přesto že se tedy neměří informace, ale struktura jazyka vytyčená řádem jazykových znaků (primitiv), vyhovuje tento způsob měření množství informace kvantifikaci informační kapacity přenosového zařízení, kvantifikaci kapacity paměti zařízení i kvantifikaci rychlosti zpracování informace (ve skutečnosti jazykových konstruktů). Hartley vytyčil inspirující cestu, a nastalo myšlenkové pokračování. Na hypotéze, že informace působí snížení neurčitosti, dal Shannon základy teorii informace jakoexaktní vědě (v článku: Claude Elwood Shannon, Warren Weaver: „A mathematical theory of communication“ v r. 1948) vizInformační entropie. Mnoho dalších vědců na ni navázalo.
Základní jednotkou kvantity informace v oboru informatiky je bit. Pojmenování bit je zkratka "binary information digit" („číslice binární informace“).Claude E. Shannon poprvé použil slovo „bit“ ve svém klíčovém článku z roku 1948: A Mathematical Theory of Communication. Původ označení „bit“ však přisuzovalW. Tukeymu, který v r. 1947 napsal zprávu pro Bell Labs, ve které zkrátil "binary information digit" na „bit“ a tak pojmenoval jednotku množství informace.[24]
V teorii informace je bit definován jako hodnotainformační entropie náhodnébinární proměnné, která má hodnoty0 a1 se stejnou pravděpodobností[25]. Jako jednotka množství informace je bit také někdy uváděn jako shannon[26] pojmenovaný po Claude E. Shannonovi.
Jednotka bit rovněž může být uvažována jako stav logické proměnné nabývající jedné ze dvou možných hodnot. Tyto hodnoty jsou často reprezentovány jako „1 “ nebo „0 “, ale používají se i jiné reprezentace, např.ano /ne,zapnuto /vypnuto.
Při výpočtech množství informace, např. hodnoty entropie pro daný případ, mohou výsledky nabývat hodnot v necelých bitech viz např.[27]. Zlomkovou hodnotu bitu si lze představit, jako hodnotu entropie náhodné binární proměnné, která má hodnoty0 a1 s nestejnou pravděpodobností. Nebo v případě logické reprezentace bitu, jako střední hodnotu získanou přepínáním (kmitáním) mezi logickými hodnotami0 a1 s takovou střídou, že dává onu necelou hodnotu. V takovém případě logika přesahuje rámec dvou hodnot a stává se vícehodnotovou. V obou případech je zřejmé, že vystupují z rámce definice bitu, neboť definice prezentují bit jako nedělitelnou jednotku, kterou v aplikacích je však nutno dělit na zlomky. Dělení bitu na zlomky se děje mimo definici. Velikost entropie odpovídající necelým bitům je patrná z obr. „Graf binární entropie (v intervalu <0;1>)“ nainformační entropie a to pro hodnotyPr (X = 1) ≠ 0.5 (tedy pro nestejné pravděpodobnosti výskytu hodnot0 a1 náhodné proměnnéX). KdePr (X = 1) značí pravděpodobnost výskytu hodnoty1 náhodné proměnnéX.
Jednotka bit není definována v mezinárodní soustavě jednotek (SI). AvšakMezinárodní elektrotechnická komise IEC (francouzsky: Commission électrotechnique internationale ) specifikovala, že symbol pro binární číslici je buď "bit" podle normy IEC 80000-13, 2008, nebo malé písmeno "b" podle normy IEEE 1541-2002 . Použití malého "b" však může ale způsobit záměnu s velkým „B“, což je mezinárodní standardní symbol pro bajt (řetězec bitů, nejčastěji jejich osmici). Označení bit je použito ve všech násobcích, například "kbit", pro kilobit.
Jednotka bit a její násobky se používají tam, kde se jedná o množství informace, tedy např. o velikost obsazené paměti. Pro rychlost přenosu informace se používá bit za sekundu bit/s ( angl. bps). Přenosové rychlosti komunikačních zařízení jsou uváděny v kilobitech za sekundu (kbps nebo kb/s), megabitech za sekundu (Mbps nebo Mb/s) nebo gigabitech za sekundu (Gbps nebo Gb/s).
NechťX je množinan možných událostíxi, s pravděpodobnostmi výskytu (někdy se říká realizace nebo výběr)pi, a kde∑ pi = 1.
Množství informaceI(xi), které je v každé jednotlivé událostixi, která má pravděpodobnost výskytupi, lze stanovit jako funkci pravděpodobnosti výskytu té události takto (Hartlyho míra informace):
- I(xi) = -log(pi), (0 < pi ≤ 1)
Pokud se za základ logaritmu zvolí2, je hodnotaI(xi) uvedena v bitech. Znaménko mínus před logaritmem je vloženo proto, že logaritmus pro uvedený interval argumentu(0 < pi ≤ 1) má zápornou funkční hodnotu, a množství informaceI(xi) musí být kladná hodnota.
I(xi) se nazývávlastní informace (ang. self-information), tj. množství informace, kterou přinese výskyt událostixi. Vztah proI(xi) matematicky demonstruje myšlenku, že čím je pravděpodobnostpi výskytu událostiximenší (tedy vzácnější), tím její výskyt přinášívětší množství informace. Případpi = 0 (výskyt, který nemůže nastat) je nutno vyloučit, neboť by odpovídající informace byla nekonečná, což nelze připustit, model-vztah proI(xi) by neodpovídal skutečnosti.
Pokud se ze všechI(xi) jichž jen, vytvoří vážený průměr, kde váhami jsou příslušné pravděpodobnostipi, vznikne výše uvedený vztah pro Shannonovu entropiiH. EntropieH je takváženou střední hodnotou vlastních informací všechn jevůxi, a hodnota entropieH tak vyjadřujeprůměrné množství vlastní informace na jeden výskyt pravděpodobnostního jevuxi.
Jestliže jistá zpráva obsahujeK výskytů (např. znaků) pravděpodobnostního jevuX, a průměrné množství informace na jeden výskyt ve zprávě je dáno hodnotou entropieH (kdy se vážený průměr provede pro oněchK výskytů), pak ona zpráva přináší množství informaceI = K * H. Tak neurčitost, která byla zprávou příjemci odstraněna, je rovna onomu množství informaceI. To je případ, kdy se zachovává výše uvedené shannonovské odhlédnutí od reality, kdy výskyty jevů se považují za na sobě nezávislé, neboť se jedná o obecný případ, kdy nelze jejich závislost specifikovat. V konkrétních případech, např. kdy znaky náleží jistému přirozenému jazyku, se může navíc uvažovat, jak pravděpodobnost výskytu jistého znaku závisí (je podmíněna) na výskytu předchozího znaku (případně více předchozích znaků), jak je to onomu jazyku vlastní, což je pro řadu přirozených jazyků statisticky vypočítáno a publikováno[28]. Závislostí mezi znaky je pak ovlivněna i hodnota entropieH a tak i hodnota odstraněné neurčitosti, neboť závislost mezi výskytem znaků „napovídá“ (nese informaci), který znak by mohl následovat, což snižuje nepředvídatelnost těch jevů, a tak hodnotu entropie.Tuto situaci matematicky reprezentuje vztah
- I(X;Y) = H(X) - H(X/Y)
uvedený v následujícím odstavci, kde nyní
I(X; Y) představuje průměrnou informaci na jeden výskyt (znak) zK výskytů obsažených ve zprávě,
H(X) je průměrná informace na jeden výskyt (znak) v případě, kdy znaky ve zprávě jsou nezávislé,
H(X/Y) je průměrná informace obsažená v pravděpodobnostní závislosti znaku na znaku předchozím.
Na hodnotěH (X/Y) se podílí informace, pocházející z jiného zdroje informace, než přijímaná zpráva. Je to informace lokální, získaná statistickou analýzou příslušného přirozeného jazyka, stanovující pravděpodobnost výskytu znaku, když už se objevil znak předchozí. HodnotaH (X/Y) představuje informaci, která je apriori už známa odjinud, tak neurčitost, která byla zprávou příjemci odstraněna, je rovna množství informace
- I = K * I(X;Y),
které přichází kanálem ODESÍLATEL – PŘÍJEMCE. Celkové množství informace, které má příjemce k dispozici z obou zdrojů je
- I = K * [I(X;Y) + H (X/Y)] = K * H(X).
Princip sdělování, kdy kanálem prochází minimum informace a větší kvantum informace má příjemce k dispozici lokálně (u sebe), lze realizovat tak, že kanálem procházejí pouze pointery (ukazatelé) do báze znalostí příjemce, kde se aktivuje (vybere) odpovídající informace. Tohoto principu použila příroda v lidské komunikaci (vizKonotace / komunikace), kde konstrukty sdělovacího jazyka (slova, věty) slouží jako pointery do lidské psýchy, disponující znalostmi (vnitro psychický kognitivní model) odpovídajícími přijímaným jazykovým konstruktům.
Vzájemná informace má v teorii informace řadu aplikací, např. v informačním kanálu (Shannonově schématu) se požaduje maximální možná vzájemná informace mezi výstupem a vstupem kanálu s ohledem na přítomnost šumu a s ohledem na šíři pásma kanálu.
Vzájemná informace (někdy též transinformace)I(X;Y) je množství informace, které je společné náhodným proměnnýmX aY. Je měřítkem vzájemné statistické závislosti mezi dvěma náhodnými proměnnýmiX aY. Obvykle se udává v bitech. Tuto veličinu definoval a analyzovalClaude Shannon ve své klíčové práciMatematická teorie komunikace[29], avšak nenazval ji „vzájemnou informací“. Tento termín později vytvořilRobert Fano[30]
Vzájemná (průměrná) informaceI(X; Y) vypovídá o tom, kolik informace oX lze získat při znalostiY, to znamená, jakou měrou znalost jedné z těchto proměnných snižuje nejistotu znalosti o té druhé. Vzájemná informace měří průměrné množství informace poskytnuté výskytem náhodných jevůxi ϵ X při statistické závislosti na pravděpodobnosti výskytu náhodných jevůyj ϵ Y.
Vzájemná informace dvou pravděpodobnostních jevůxi,yj je podle Hartlyho míry informace:
,
kde
- p(xi) ap(yj) jsou (marginální) pravděpodobnosti jevůxi ayj.
- p(xi | yj) je podmíněná pravděpodobnost jevůxi ayj, tj. pravděpodobnost jevuxi při realizaci (vyskytnutí se) jevuyj, tedy, když už je jevyj znám.
- p (xi,yj) je sdružená pravděpodobnost jevůxi ayj, tj. pravděpodobnost současného výskytu jevůxi ayj.
Průměrná vzájemná informace měří váženou průměrnou vzájemnou informaci, která se vyskytuje mezi hodnotamixi,yj dvou náhodných proměnných. Váhou pro společný výskyt jevůxi;yj je pravděpodobnost jejich společného výskytup (xi,yj). Průměrnou vzájemnou informaci dvou diskrétních náhodných proměnnýchX aY lze pak definovat:

Definice průměrné vzájemné informace v poněkud odlišné interpretaci:
Definice z teorie informace[31]:
InformaciI(X;Y) ve zprávěY o zprávěXzdroje
definujeme jakorelativní entropii
mezi skutečným rozdělenímp(x,y) dvojice zpráv(X,Y) a součinovým rozdělenímq(x,y) = p(x)p(y), kterým by se dvojice řídila, kdyby její komponentyX aY byly vzájemně nezávislé, tj.

(Logaritmus se nejčastěji uvažuje dvojkový. V tom případě je informace vyjádřena vbitech.)
Průměrná vzájemná informace definovaná prostřednictvím (marginální) entropie,podmíněné entropie asdružené entropie[32], dvou náhodných proměnných X, Y[33]:
- I(X;Y) = H(X) - H(X/Y)
- I(X;Y) = H(Y) - H(Y/X)
- I(X;Y) = H(X) + H(Y) - H(X, Y)
- I(X;Y) = H (X, Y) - H(X/Y) - H(Y/X),
kdeH ( X ) aH ( Y ) jsou (marginální) entropie,H ( X | Y ) aH ( Y | X ) jsou podmíněné entropie aH ( X , Y ) je sdružené entropie proměnnýchX aY .
V definičním vztahu pro vzájemnou informaci udává entropieH(X) míru nejistoty hodnoty náhodné proměnnéX, aH(X|Y) je množství zbývající nejistoty oX, když jeY známé. RozdílH(X) - H(X/Y) udává množství nejistoty vX, redukované o množství nejistoty vX, která zbývá, za podmínky, že jeY známé. Z tohoto se ukazuje význam vzájemné informace jako množství informace (tj. snížení nejistoty), které znalost jedné proměnná poskytuje o druhé.
Nastávají dva extrémní případy:
První extrém nastává, pokud jsou náhodné proměnnéX aY nezávislé (neurčitost vzájemné vazby je nekonečná), znalost jedné nevypovídá nic o druhé, jevy zY nepřispívají žádnou informací, neurčitostH(X/Y) není ovlivněna hodnotamiY, takH(X/Y) = H(X)) a vzájemná informaceI(X; Y) proměnnýchX aY je:
- I(X;Y) = H(X) - H(X/Y) = H(X) - H(X) = 0
Druhým extrémem je situace, kdy mezi náhodnými proměnnýmiX aY je neurčitost závislosti nulová, a tak je závislost deterministická. Pak proměnnéX aY jsou funkčně závisléY = f (X), kdef je deterministická funkce. Tak každá z oněch proměnných obsahuje úplnou znalost o té druhé, znalostY určujeX, a informace obsažená vrozdělení pravděpodobnosti jedné z proměnných je stejná, jako informace obsažená v pravděpodobnostním rozdělení té druhé. V deterministické závislosti mezi proměnnýmiX,Y je nulová neurčitost, a tak podmíněná entropieH(X/Y) = H(X/X) = 0 (pravděpodobnostní rozložení proměnnýchX aY jsou stejná, nesou stejnou neurčitost, tak i informaci) aH(X/Y) nepřispívá ke snížení neurčitostiH(X), a vzájemná informace podle definičního vztahu je:
- I(X;Y) = H(X) - H(X/Y) = H(X) – 0 = H(X)
Z jistého množství poznáním získané informace, lze za jistých podmínek, získat další informaci, která je v té prvotně získané, člověku skryta. Postupu se říká usuzování, a má svoji přirozenou formu (informace zpracovávaná lidskou psýchou je inherentně vágní), známou z usuzování pověstného Sherlocka Holmese, a svoji formu exaktní (formální, možnou pouze pro informaci s nulovou vnitřní vágností) používanou v matematice, a známou jakoinference. Inference[34][35] znamená z výchozích jazykových konstruktů (axiomů) získání (podle daných pravidel, např. dovolených úprav rovnic) nových jazykových konstruktů, které v jisté interpretaci mohou přinášet novou informaci. Daná soustava informace může poskytnout jen určité množství usuzováním získané informace, pro další informaci je nutno vrátit se k reálnému světu, uskutečnit další poznání, a soustavu znalostí tak rozšířit.[36] Buď tak získáme hledanou informaci, či v rozšířené soustavě znalostí ji opět hledáme na základě inference.
Zpracováním informace lze získávat i informaci nad danou soustavou informace, třeba nalezení jistého řádu v soustavě. Takto získané informaci se říká metainformace.Zpracováním informace lze předpovídat zatím nepoznané jevy, předpovídat zatím nepoznaná data, a tak je nabízet k experimentálnímu ověření či zamítnutí.Modifikaci (inferenci) jazykových konstruktů (vizExaktní věda, tam příklad inference) formálního jazyka (matematika, formální logika, programovací jazyky) může podle daných pravidel provádět stroj s diskrétními stavy (Turingův stroj, počítač).[34][37] V tom případě stavům stroje vhodně přiřadíme konstrukty onoho jazyka, a sled stavů stroje řídíme podle daných pravidel. Tak lze proces inference automatizovat, ovšem inference vyžaduje metainformaci, o tom, jak řadit inferenční kroky, což je lidská znalost, a tu je nutno stroji sdělit – naprogramovat. Formální inferenci lze provést pouze pro informaci s nulovou vnitřní vágností, neboť jen tu lze reprezentovat formálním jazykem a zpracovat formální inferencí, ať již strojem či tužkou na papíru. Interpretaci inferencí získaných jazykových konstruktů musí provést člověk.
Lidská komunikace je proces, který se dá schematicky popsat z hlediska přenosu a zpracování informace. Popisuje se princip, kterým člověka obdařila příroda. Je to model postavený na základních pojmech, které jej orientují ke kognitivní psychologii a informatice. Podrobnosti jsou uvedeny naLidská komunikace – princip.
S rozvojem elektrických a elektronických komunikací se informace stává i technickým pojmem. Zájem se soustřeďuje na formální jazykovou stránku, a nezabývá se jejím smyslem či obsahem. Základním modelem pro přenos informace je soustava vysílač (kodér) – kanál – přijímač (dekodér). Roku1948 publikovalClaude Shannon, který pracoval proBellovy laboratoře, průkopnickou publikaciA Mathematical Theory of Communication,[38] v níž se soustřeďuje na přenos zpráv, kódovaných v nějakéabecedě o konečném nebospočetném množství znaků. Tak se stal jedním ze zakladatelůteorie informace.
Informace musí mít určité vlastnosti
Informace by měla být:
- pravdivá
- srozumitelná – různé jazyky, různé kódy, šifrování,
- včasná,
- relevantní, česky souvztažná, významná v dané souvislosti – ne „já o koze, ty o voze“,
- etická – platí jen pro mezilidské vztahy. Není to podmínka nutná, jako předchozí, ale žádoucí.
Informace je nezávislá na svém energetickém nosiči. Změna materializace nosiče má za následek pouze změnu vlastností přenosové trasy (kanálu), ale smysl či obsah informace nemění. Je to jako s přepravou nákladu – náklad se nemění, ať použijeme k přepravě koně, auto, nebo letadlo.
- Signál je vysílaná jazyková struktura, do níž je vtisknuta informace. V případě příjmu, (případném dekódování), a interpretaci recipientem se pro něho stává informací. Signál je stěžejním pojmem informatiky. V některých specifických případech se signálem rozumí i samotný nosič bez modulace. Je to např. při zprovozňování (oživování) vyrobených či opravovaných elektronických zařízení, kdy je z vnějšího generátoru přiváděné elektrické napětí o jisté frekvenci, a zjišťuje se, které části dotyčného elektronického zařízení ho správně zpracovávají a které nikoliv. Zjištěné chyby v elektronickém zařízení se pak opraví.
- Modulace' je metoda vytvoření signálu na jeho nosiči, tj. vytvoření (jazykové) struktury nesoucí informaci a umožňující materializaci jazyka zejména v případě, kdy je pro materializaci použito elektromagnetického pole. Příklady použití jsou rozhlas, televize, bezdrátová pojítka, radiolokace.
- Šum je rozdíl mezi tím, co bylo do informačního kanálu vloženo a tím, co bylo přijato. U informace se rozlišuje syntaktický asémantický šum. Shannonovská informatika uvažuje pouze syntaktický šum, což je jakékoli poškození jazykové struktury (formy) nesoucí informaci, které znesnadňuje rozpoznání (čtení) té struktury, a tak zapříčiňuje chyby jejího čtení. Příkladem je hluk v místnosti, který ruší srozumitelnost rozhovoru, šumění při příjmu rádiového vysílání, „zasněžený“ či potrhaný obraz na monitoru televizoru, nedotisknuté (chybí části písmen) nebo zašpiněné písmo na papíru, potrhaný či poškrabaný obraz na plátně atp.
- Kanál je informační cesta, Shannonovo schéma toku informace od zdroje k adresátovi, kde se uvažuje působení šumu, a pak jakákoli jeho realizace – např. ipoštovní holub může být součástí informačního kanálu.
- Fuzzy bit (též weak či flaky)[39] je bit který nesplňuje podmínky dokonalé rozlišitelnosti svých dvou hodnot 0 a 1, LOW a HIGH... Tak nesplňuje podmínku dokonalé rozlišitelnosti (čitelnosti), na které je postaven svět digitální techniky. Důvodem je buď technologická nedokonalost materializace (poškozená magnetická polarizace materiálu nosiče, poškozená elektronika apod.) bitové struktury nebo záměr. Hodnoty 0 a 1 každého bitu mají při materializaci předem dané tolerance (intervaly) svých hodnot, ve kterých jsou hodnoty bitu bezpečně rozlišitelné. V případě fuzzy bitu nejsou tyto tolerance dodrženy, intervaly se mohou částečně překrývat. Taková nedokonalost bitu - jazykového konstruktu je ze shannonovského hlediska klasifikována jako (syntaktický) šum, poškození jazykové formy nesoucí informaci. Při čtení je pak hodnota fuzzy bitu nahodile rozeznávána a tak i zaznamenávána jako 0 nebo jako 1.Taková nedokonalost materializace bitu může být i záměrem.[40] Předem při materializaci vytvořená sekvence fuzzy bitů, může sloužit jako zámek pro ochranu daného záznamu na médiu, proti nelegálnímu kopírování. Na kopii totiž již není sekvence fuzzy bitů, ale sekvence normálních bitů, tak, jak byly při kopírování rozpoznány a tak i zaznamenány. Na originálu se při opakovaném čtení sekvence fuzzy bitů objeví pokaždé jiný výsledek (test původnosti je úspěšný), daný náhodností rozeznaných hodnot. U nelegální kopie se při opakovaném čtení objeví vždy stejný výsledek (test původnosti neprojde), což vede k zablokování použití kopie.
- Dezinformace je součástípropagandy a je definována jako nepravdivá informace, která je záměrně šířena za účelem oklamání lidí. Člověku, který záměrně šíří dezinformace, se říkádezinformátor. Dezinformace je někdy zaměňována smisinformací, což je také nepravdivá informace, ale neúmyslně šířená.
Rostoucí význam informací ve smyslu vědomostí a zpráv obrátil od konce 19. století pozornost vědců – zejménalingvistů – ke studiu znakových systémů akódů. Informace se šíří řečí a v historické době i písmem, které ji kódují pomocí slov, hlásek a písmen. Ty nesou informaci jen proto, že tvoří ucelené systémy (slovník,fonetiku,abecedu): hlásky nesou význam jen potud, pokud se od sebe zřetelně liší (Ferdinand de Saussure). Spísmem vznikla první možnost trvalého uchovávání informace na hmotném nosiči, jež se dále rozvinulaknihtiskem a konečně i elektronickými způsoby uchovávání kódované informace. Odtud vznikl i pojeminformační společnost – společnost, která se ve stále větší míře opírá o shromažďování, využívání a šíření informací.[41]
Zatímco účelemanalogového přenosu informace je pouze přeměna hlasu nebo obrazu na elektrický signál, jeho věrný (nezkreslený) přenos a opačná změna na zvuk nebo obraz, už vtelegrafii se objevila možnost úsporného kódování znaků.Morseova abeceda kóduje písmena a číslice do posloupností krátkých a dlouhých signálů (tečka, čárka, mezera), které se snadno a spolehlivě přenášejí. Na podobném základě pracuje idálnopis, kde se však převod znaků abecedy do binárního tvaru (a nazpět) děje automaticky.
Kódovaná informace a její nosiče (děrná páska,děrný štítek, magnetické nosiče atd.) otevřela i další možnosti strojového zpracování informace, z nichž se vyvinula současná počítačová technika a informatika. Slovo „informace“ se zde však používá v několika rovinách: text, který právě píši, kóduji do písmen, ta se v počítači převádějí na binární kódy (ASCII,UNICODE) a přenášejí mezi počítači v určitých formátech, ale nakonec jako posloupnosti elektrických signálů, případně optických či elektromagnetických. Informace, které do systému vkládáme, dospějí ke svým adresátům jen tehdy, pokud všechny tyto transformace jejich kódování a zobrazení proběhnou podle přesně stejných pravidel v přijímači jako ve vysílači, jen v opačném směru. Přenosové sítě proto musejí pracovat s víceúrovňovými modely, kde si vysílače a přijímače na jednotlivých úrovních „rozumějí“: pisatel se čtenářem, program s programem,počítač s počítačem,modem s modemem atd.
Zpracováním informací obecněji se rozumí nejen přenos, ale i transformace informací. V počítačích a spol. se informace reprezentují pomocídat.
V některých oborech lidské činnosti se informace měří prostřednictvím jazykových konstruktů (znaků, slov, vět, nebo knižních stránek...). Na poště se telegramy hodnotily podle počtu slov, vknihovnictví se užívá měření na stránky, novináři počítají slova nebo znaky a v počítači se informace měří nabajty nebo bity. Jedenbit, odpovídá jednomu rozlišení typu „ano – ne“, nese informaci, ze které se dozvíme, který stav nastal ze dvou stavů stejně pravděpodobných (např.házení mincí). Je to základní jednotka informace. Bajt (anglickybyte) je skupina zpravidla osmi bitů, tím pádem může nabývat 256 různých hodnot a zhruba tak odpovídá jednomu znaku abecedy evropského jazyka (asijské znaky bývají obvykle kódovány užitím 2 až 4 bajty). Je to ovšem množství informace pouze v technickém smyslu slova: stránka textu může mít 1800 bajtů, to ale neříká nic o tom, co je v nich zaznamenáno. Stejnou velikost mohou mít užitečné a smysluplné zprávy, prázdné řeči nebo konečně i samé mezery. Pro stanovení informační hodnoty souboru dat lze použítentropii.
Vedle běžného významu informací jako zpráv a vědomostí se informace dnes stala odborným pojmem v biologii i ve společenských vědách, zejména pod vlivem objevugenomu agenetického kódu. Zde je často ztotožňována informace s jejím původem, spočívajícím ve vlastnostech a uspořádání pozorovaných objektů. Genetická informace je totiž kódována pomocí pouhých čtyř nukleotidů (ACTG), jejichž trojice (kodóny) řídí syntézuproteinů; běžnými prostředky lze tedy měřit její informační obsah.
Podobný informačně teoretický pohled se dnes rozvíjí také ve fyzice i ve společenských vědách.
Tento seznam referencí potřebuje upravit.
Tento článek obsahuje
reference, které nemají standardní formu. Přidejte prosím doplňující informace a upravte je do podoby standardních
citací. Pomůžete tím udržet
ověřitelnost a jednotný
vzhled a styl článků.
- ↑JONÁK, Zdeněk. Informace. InKTD: Česká terminologická databáze knihovnictví a informační vědy (TDKIV) [online]. Praha: Národní knihovna ČR, 2003 [cit. 2011-08-07]. Dostupné z:http://aleph.nkp.cz/F/?func=direct&doc_number=000000456&local_base=KTD.
- ↑Mareš M. Zdroje informací a jejich měření. Ústav aplikované informatiky. Přírodovědecká fakulta, Jihočeské univerzity v Českých Budějovicích, 2018.https://docplayer.cz/161264417-Zdroje-informace-a-jeji-mereni.html
- ↑Matoušek R.: Teorie informace,http://www.uai.fme.vutbr.cz/~matousek/TIK/dokumenty/osmera_kap2.pdfArchivováno 24. 4. 2021 naWayback Machine.
- ↑Chomsky, N: Aspects of the Theory of Syntax. Cambridge, Mass.: M.I.T. Press, 1965.
- ↑Chomsky, N: Current Issues in Linguistic Theory. De Gruyter Mouton; Printing 1975
- ↑ Charles W. Morris: Foundations of the Theory of Signs. International Encyclopedia of Unified Science 1 (2). Chicago: University of Chicago Press. 1946
- ↑Abramson Norman: Information Theory and Coding. McGraw-Hill Education, 1963.ISBN 0-070-00145-6.https://dokumen.tips/documents/information-theory-and-coding-by-norman-abramson.html?page=32Archivováno 1. 4. 2023 naWayback Machine.
- ↑abFilip Zlámal: Entropie. MASARYKOVA UNIVERZITA, Přírodovědecká fakulta, Ústav matematiky a statistiky. Brno 2016.https://is.muni.cz/th/aiz9q/diplomova_prace_Zlamal_Filip.pdf
- ↑Zítek P.: Simulace dynamických systémů. SNTL Praha 1990
- ↑Mason, S.J.: Feedback Theory: Further Properties of Signal Flow Graphs. Proc. IRE, Vol. 44, No. 7, pp. 920-926, 1956.
- ↑Biolek D.: Grafy signálových toků pro analýzu obvodů (nejen) v proudovém módu.http://www.elektrorevue.cz/clanky/02031/index.html#1Archivováno 24. 1. 2020 naWayback Machine.
- ↑Petr Kulhánek: Mikrosvět a makrosvět.https://www.youtube.com/watch?v=HQgIZl9TpM4
- ↑Švec J., Kotek Z.: „Teorie automatického řízení“. SNTL, Praha, 1969
- ↑Balátě J.: „Automatické řízení“. BEN – technická literatura. 2004.
- ↑Mareš M.: Dvojité výročí kybernetiky, Vesmír 88, 270, 2009/4,https://vesmir.cz/cz/casopis/archiv-casopisu/2009/cislo-4/dvojite-vyroci-kybernetiky.html
- ↑ CAPURRO, Rafael, Peter FLEISSNER a HOFKIRCHNER, Wolfgang. Is a Unified Theory of Information Feasible? A Trialogue. In The quest for a unified theory of information: proceedings of the Second International Conference on the Foundations of Information Science. Amsterdam: Gordon and Breach Publishers, 1999, pp. 9 –30.ISBN 905700531X.http://www.capurro.de/trialog.htm
- ↑ Arieh Ben-Naim: ENTROPY: The Greatest Blunder in the History of science, Kindle Edition, 2021
- ↑ Arieh Ben-Naim: Entropy Demystified – The Second Law Reduced to Plain Common Sense, 2nd Edition, World Scientific 2016
- ↑Abramson, Norman: Information Theory and Coding. McGraw-Hill Education, 1963.ISBN 0-070-00145-6.ISBN 0-070-00145-6.https://dokumen.tips/documents/information-theory-and-coding-by-norman-abramson.html?page=32Archivováno 1. 4. 2023 naWayback Machine.
- ↑ Hartley, R.V.L., "Transmission of Information", Bell System Technical Journal, Volume 7, Number 3, pp. 535–563, (July 1928).
- ↑C. E. Shannon, The Mathematical Theory of Communication, Bell Syst. Techn. J. 27 (1948), č. 3, pp. 379–423.http://cm.bell-labs.com/cm/ms/what/shannonday/shannon1948.pdfArchivováno 15. 7. 1998 naWayback Machine.
- ↑Filip Zlámal: Entropie. Masarykova universita Brno, Přírodovědecká fakulta, Ústav matematiky a statistiky, 2016.https://is.muni.cz/th/aiz9q/diplomova_prace_Zlamal_Filip.pdf?studium=220622
- ↑Capurro Rafael, Hjrarland Birger: The Concept of Information. Annual Review of lnformation Science and Technology 2002.http://www.capurro.de/Capurro_Hjoerland.pdf
- ↑C. E. Shannon: A mathematical theory of communication, Bell System Technical Journal, vol. 27, pp. 379-423, July and pp. 623-656 October, 1948.http://cm.bell-labs.com/cm/ms/what/shannonday/shannon1948.pdf
- ↑John B. Anderson, Rolf Johnnesson: Understanding Information Transmission. John Wiley & Sons, 2006
- ↑"Units: B". Archived from the original on 2016-05-04.
- ↑ Mareš M.: Zdroje informací a jejich měření. Ústav aplikované informatiky. Přírodovědecká fakulta, Jihočeské univerzity v Českých Budějovicích, 2018,https://docplayer.cz/161264417-Zdroje-informace-a-jeji-mereni.html
- ↑ Mareš M. Zdroje informací a jejich měření. Ústav aplikované informatiky. Přírodovědecká fakulta, Jihočeské univerzity v Českých Budějovicích, 2018, str. 51, 54.
- ↑Shannon, Claude Elwood (1948): A Mathematical Theory of Communication. Bell System Technical Journal . 27 (3), pp. 379–423.[1]Archivováno 31. 1. 1998 naWayback Machine.
- ↑Kreer, J. G. (1957). "A question of terminology". IRE Transactions on Information Theory. 3 (3): 208.
- ↑Vajda I.,Teorie informace. Vydavatelství ČVUT, Praha 2004.ISBN 80-01-02986-7
- ↑ Navara Mirko: Teorie informace.https://cmp.felk.cvut.cz/~navara/psi/TI_ebook.pdf
- ↑Cover, T.M.; Thomas, J.A. (1991). Elements of Information Theory (Wiley ed.). John Wiley & Sons.ISBN 978-0-471-24195-9.
- ↑abHavel, I. M., Hájek, P. Filozofické aspekty strojového myšlení. In Sborník SOFSEM'82, 1982, str. 171–211
- ↑Křemen, J.: „Nový pohled na možnosti automatizovaného (počítačového) odvozování“. Slaboproudý obzor. Roč. 68 (2013), č. 1., str. 7 – 11.,https://docplayer.cz/4300687-Novy-pohled-na-moznosti-automatizovaneho-pocitacoveho-odvozovani.html
- ↑Mareš M.: Zdroje informací a jejich měření. Ústav aplikované informatiky. Přírodovědecká fakulta, Jihočeské univerzity v Českých Budějovicích, 2018.https://docplayer.cz/161264417-Zdroje-informace-a-jeji-mereni.html
- ↑Hopcroft,J.E, Motwani, R., Ullman, J.D: Introduction to Automata Theory, Languages, and Computation, 3rd Edition, Addison-Wesley, 2006.
- ↑Shannon, Claude Elwood (1948): A Mathematical Theory of Communication. Bell System Technical Journal . 27 (3), pp. 379–423.[2]Archivováno 31. 1. 1998 naWayback Machine.
- ↑Williams, Jon (2007-05-31). "The fuzzy bit". New York CTO,http://newyorkcto.blogspot.com/2007/05/fuzzy-bit.html
- ↑http://www.softpres.org/glossary:flakey_bits
- ↑Sokol,Filosofická antropologie. Oddíl „Společenská komunikace“, str. 77–80.
- Bawden, D., Robinson, L.,Úvod do informační vědy. Přel. M. Lorenz, K. Mikulášek, D. Vévodová. Doubravník: Flow 2017.ISBN 978-80-88123-10-1
- Beneš P.,Informace o informaci.BEN - technická literatura, Praha 2010, 123 s.ISBN 978-80-7300-263-3
- J. Cejpek,Informace, komunikace a myšlení: úvod do informační vědy. Praha: Karolinum, 1998 – 179 s.ISBN 80-7184-767-4
- Niedhardt P.,Einführung in die Informationstheorie. Verlag Technik Berlin, Berliner Union Stuttgart 1957
- J. Sokol,Filosofická antropologie. Praha: Portál 2003
- Stonier T.,Informace a vnitřní struktura vesmíru.BEN - technická literatura, Praha 2002, 150 s.,ISBN 80-7300-050-4
- Zlámal F.,Entropie. MASARYKOVA UNIVERZITA, Přírodovědecká fakulta, Ústav matematiky a statistiky. Brno 2016.https://is.muni.cz/th/aiz9q/diplomova_prace_Zlamal_Filip.pdf