Etter litt lesing på nettet har jeg forstått at høy entropi er det samme som mye kaos eller uorden (hvis kaos/uorden i det hele tatt kan kvantifiseres eller måles):I varmelæren øker entropien når tilført energi avtar.I mekanikken minker muligheten for et utført arbeid når entropien vokser (f.eks. når temperaturen blir lik overalt).I informationsteorien er entropi et mål på usikkerheten av vår viten, eller kunnskap. Hvis sansynligheten for et utfall er like stort som alle andre utfall for et problem, så er entropien høy (maksimal?).
Eksakte vitenskaper (matematikk?) har defor lav informasjonsmessig entropi, mens for eksempel astrologi må ha mye høyere informasjonsmessig entropi.
Men hvis vi snakker om informasjon og vårt forhold til den, så føler jeg vel at hjernen søker orden (som dermed er det motsatte av entropi). Hvis det er tilfellet, kunne vi kanskje dra følgende påstand:
Alle tilgjengelige sanseinntrykk (eller snarere små posjoner av dem) oppfattes som kaos helt til de blir tolket, hvorpå de blir informasjon i tolkningens kontekst (i tolkerens hjerne). Idet tolkeren ønsker å benytte seg av denne informasjonen til noe eller forstår konsekvensene, oppstår det en kunnskap (riktig eller gal) om denne informasjonen. Dette betyr at informasjonen kan ligge latent lenge før den blir til kunnskap og forståelse (dette har jeg merket mange ganger selv, ved at man studerer og studerer og så plutselig forstår man det hele).
Jeg mener at denne prosessen er en pågående kontinuerlig prosess gjennom et individs levetid, og kalles i dagligtale for læring. Når kaoset er tolket (og kunnskap har oppstått) kan tolkeren formidle denne informasjonen (sin tolkning) som en melding. Hvordan meldingen utformes er helt opp til tolkeren. Hvordan denne informasjonen kan forståes av andre tolkere er helt opp til disse. Hvis disse igjen formidler sine tolkninger, øker entropien igjen, fordi en formidling utfordrer andre individers tolkninger, og kaos gjenopprettes fordi det ikke er samsvar mellom tolkningene. Dermed starter prosessen på nytt og man oppnår en høyere grad av forståelse, forhåpentligvis (still confused, but on a higher level...). Dette må vel sies å være den fundamentale metodikk vi mennesker benytter oss av på skoler og universiteter. Men siden det er så generelt utformet, kunne vi ikke da også si at dette gjelder all form for læring, også når revemor lærer hvalpene sine å fange mus?
Entropi -> Tolkning -> Informasjon -> Kunnskap -> Formidling -> Entropi -> ....| |+--------------- En informasjonssyklus ----------------------+Entropi + |. |. | . | . Én infomasjonssyklus | . | . | . +--------------> Kunnskap
Det vil si: lav entropi == høy kunnskap, helt til kunnskapen formidles hvorpå entropien øker igjen.Antar vi en tidsakse ut og inn av skjermen (papiret) som kurven er tegnet på, så er det mulig å anta at vi for hver syklus starter med høy entropi men litt lenger ut på kunnskapsaksen for hver gang. At denne effekten er tilstede kan vi se på vår historie: Når biblioteket i Aleksandria brant, gikk mye informasjon tapt: => Økt entropi. Og dermed mistet vi muligheten for å tilegne oss/bygge på/lære av tidligere informasjon, og har måttet lære alt på nytt. Det samme gjelder for eksempel det som kalles 'the dark ages', hvor tilgang til informasjon var forbeholdt et absolutt lite mindretall. Igjen i forrige århundre, benyttet man seg av samme taktikk når man skulle opprette superstater.Mens i våre dager, ved hjelp av Internett og med alminnelig tilgang til det meste av informasjon, så synker entropien. Følger vi denne logikken, kan det vel kanskje hevdes at lav informasjonsmessig entropi lager samfunn som blir helt like, kunnskapsmessig. Så for å øke kunnskapsmengden, trenger vi litt kaos av og til (jfr tidsaksen ovenfor). Dette samsvarer også helt etter det vi kan observere i naturen: En katastrofe (=> økende entropi) er kanskje ødeleggende for noen, men er helt nødvendig for at livet skal gå videre for andre.
Jeg har vanskelig for å sette likhetstegn mellom 'Informasjon' og 'Kunnskap', rett og slett fordi vi har tilgang til massevis av informasjon som vi til og med konsumerer (tolker). Men det er ikke dermed sagt at vi har forstått den eller hvilke konsekvenser den har (dvs mye informasjon, men null kunnskap). Mao: tolkning er ikke det samme som kunnskap. Kunnskap har nytteverdi for oss, det har ikke nødvendigvis informasjon.
Et språklig fenomen som også gjør dette litt vanskelig er at man i termodynamisk forstand snakker om fullstendig ro som en kaotisk tilstand (et system uten temperaturforskjeller; noe jeg ville kalt rolig, er maksimalt kaotisk eller har høy entropi). Dette virker selvmotsigende.
Kan noen legge inn noe interessant om selve substantivet "informasjon". Det er jo noe spesielt med det, siden det ikke har kjønn, og heller ikke kan bøyes i flertall/entall.
Jeg har flyttet opp den beste delen: Data, informasjon, kunnskap. Den tunge innledningen har jeg flyttet ned i stede for å slette den.--Kawelde4. mai 2010 kl. 12:50 (CEST)[svar]
Jeg synes denne artikkelen er for sprikende. Jeg tror det går an å omorganisere den i to hovedtyper betydninger:
Jeg ser at det kanskje er behov for å beholde neuronale systemer og kognitive informasjonssystemer som et separat tredje punkt. Men det vil uansett forenkle artikkelen kraftig å kutte ned fra 5 til 2 eller 3 betydninger.
Siden informasjon i IKT-betydningen er så sentral i dag, har jeg lyst til at dette skal være hovedtema for artikkelen. Så kan det opprettes egne sider hvor informasjonsteori og kognitive/neuronale informasjonssystemer utdypes. Alternativt gjøres denne siden til en renere pekerside, med en egen side for "Informasjon (IKT)".