A Shannon-féle információelméleti függvények hasonlóképp kezelik az információt, mint a termodinamika az entrópiát (amelyet a rendezetlenség mértékeként szokás jellemezni). Minél kisebb az entrópia, tehát minél nagyobb a rendezettség, annál magasabb az információtartalom (hiszen az információ: a véletlenszerűség hiánya). Nagyon leegyszerűsítve, Shannon az információ mennyiségét azon bináris számjegyek számával jellemezte, amennyi ahhoz kell, hogy ezt az információt kódolni tudjuk. Ő használta 1948-as dolgozatában először a bit – amely a binary digit (vagyis számjegy) rövidítése – kifejezést az információ alapegységeként.
Emellett az információtovábbítás sok más alapelvét is lefektette. Például bebizonyította, hogy a kommunikációs csatornákon keresztül csak véges mennyiségű információ továbbítható adott idő alatt, ezt hívjuk sávszélességnek. Valamint azt is, hogy még zajos (itt zajon az értékes információ mellett haladó, annak átvitelét zavaró, nemkívánatos „sercegést” értjük) környezetben is továbbítható az üzenet, ha matematikai javítómechanizmusokat iktatunk a rendszerbe. Ez is alapfelszereltsége a mai digitális kornak – még ha a nagy többségnek fogalma sincs a létezéséről –, hiszen e hibajavító algoritmusok teszik lehetővé a zökkenőmentes kommunikációt a modemektől kezdve a cédékig.
Szóljon hozzá!
Jelenleg csak a hozzászólások egy kis részét látja. Hozzászóláshoz és a további kommentek megtekintéséhez lépjen be, vagy regisztráljon!