Wróć do informacji o e-podręczniku Wydrukuj Pobierz materiał do PDF Pobierz materiał do EPUB Pobierz materiał do MOBI Zaloguj się, aby dodać do ulubionych Zaloguj się, aby skopiować i edytować materiał Zaloguj się, aby udostępnić materiał Zaloguj się, aby dodać całą stronę do teczki

Współczynnik kompresji danych

Współczynnik kompresji danych, zwany również stopniem kompresji, pozwala w sposób obiektywny ocenić skuteczność kompresji.

Pamiętajmy jednak, że nie zawsze mniejsza liczba danych po kompresji świadczy o ich jakości. M.in. dlatego istotne jest, aby skompresowane dane były jednoznacznie dekodowalne. W przypadku kompresji bezstratnej chcemy, aby dane po odkodowaniu były identyczne z wejściowymi. Natomiast w wypadku kompresji stratnej rezultat zależy od przyjętych kryteriów oraz od tego, co kompresujemy.

Dla popularnego formatu stratnej kompresji grafiki – JPEG – kryterium stanowi parametr jakości ustawiany przez użytkownika podczas kompresji. Wyraża się go w procentach, gdzie 1% to minimalna jakość (największy współczynnik kompresji), a 100% to maksymalna (najmniejszy współczynnik kompresji).

W plikach audio i wideo często stosowanym parametrem jest tzw. bitrate. Jest to liczba bitów przeznaczona na jednostkę czasu. Często używa się jednostek pochodnych, np. kilobitów na sekundę (oznaczanych kbit/s lub kbps). Im więcej bitów przeznaczymy na jedną sekundę pliku audio lub wideo, tym lepsza będzie jakość skompresowanego utworu (mniejszy współczynnik kompresji). Popularny format MP3 obsługuje bitrate od 16 kbps do 320 kbps.

W przypadku kompresji tekstu nie możemy sobie pozwolić na kompresję stratną, ponieważ tekst po dekompresji powinien odpowiadać oryginałowi. Kompresując obrazy lub filmy, możemy stosować kompresję stratną. Współczynnik kompresji dobieramy wówczas w zależności od zastosowań obrazu (filmu) i wtedy znaczenie ma to, żeby dana forma była czytelna dla człowieka. Przykładowo, jeżeli naukowcy z NASA robią z użyciem teleskopu zdjęcie nieba, to niezwykle istotne są na nim detale – w takiej sytuacji niedopuszczalna byłaby jakakolwiek kompresja stratna. Jeżeli jednak przesyłamy swoje zdjęcia na portal społecznościowy, to niewielka kompresja stratna (taka, której nie jesteśmy w stanie zauważyć na pierwszy rzut oka) jest już akceptowalna.

Dlatego też stopień kompresji jest wyznacznikiem skuteczności samej kompresji, jednak nie może w żadnym wypadku posłużyć za wyznacznik jej jakości. Dodatkowo, jeżeli porównamy współczynniki wyznaczone dla kompresji stratnej i bezstratnej, to powinniśmy zobaczyć, że kompresja stratna osiągnęła wyższy stopień kompresji.

Stopień kompresji obliczamy zgodnie z następującym wzorem:

Stopień kompresji   =   Rozmiar nieskompresowanych danych Rozmiar danych po skompresowaniu

Porównajmy zatem rozmiar pliku ze zdjęciem poddanym kompresji. Wymiary zdjęcia to 600 x 600 pikseli.

Użyty format pliku

Rozmiar

Współczynnik kompresji

BMP (dane nieskompresowane)

1024 kB

-

PNG (kompresja bezstratna)

577 kB

1,77

JEPG (kompresja stratna, jakość kompresji 80%)

81,4 kB

12,58

We wszystkich przypadkach obraz był wyraźnie odwzorowany. Możemy przeprowadzić podobny eksperyment dla pliku audio. Kompresować będziemy krótki, 10‑sekundowy utwór.

Użyty format pliku

Rozmiar

Współczynnik kompresji

WAV (dane nieskompresowane)

1740 kB

-

FLAC (kompresja bezstratna)

496 kB

3,51

MP3 (kompresja stratna)

236 kB

7,37

W przedstawionym przypadku utrata jakości utworu była niezauważalna dla ludzkiego ucha.

Ważne!

Kompresja stratna i kompresja bezstratnakompresja bezstratnakompresja bezstratna się nie wykluczają. Przykładowo, w kompresji obrazów JPEG korzysta się z kwantyzacji (potocznie można rozumieć to pojęcie jako zaokrąglania do określonej skali) oraz kodowania Huffmana. Wiele metod kompresji stratnej korzysta również z metod kompresji bezstratnej.

W omawianych przykładach posługujemy się metodami kompresji bezstratnej.

Istnieją jednak również inne kryteria pozwalające ocenić kompresję.

Claude Shannon w 1948 roku opublikował swoje podstawowe twierdzenie dla kanałów bezszumowych. Kanał bezszumowy w tym kontekście oznacza, że wiadomość – pomiędzy zakodowaniem i zdekodowaniem – nie będzie podlegała żadnym błędom transmisji.

Podstawowe twierdzenie Shannona dla kanałów bezszumowych
Twierdzenie: Podstawowe twierdzenie Shannona dla kanałów bezszumowych

Jeśli język posiada entropię h i kanał komunikacji może przetransportować C bitów na sekundę, możliwe jest zakodowanie sygnału w taki sposób, żeby transmitować  symboli na sekundę, gdzie może być dowolnie małe. Niemożliwe jest transmitowanie wiadomości o większej średniej częstości niż .

Gdzie:

  • Język oznacza listę liter/słów/zdań, które chcemy zakodować.

  • Entropia h oznacza średnią liczbę bitów na symbol (jest to np. 8 dla kodowania ASCII).

  • C oznacza przepustowość kanału komunikacji.

Przedstawione twierdzenie ma większe zastosowanie w telekomunikacji. W artykule „The Mathematical Theory of CommunicationShannon wprowadził pojęcie entropii oraz opisał koncepcję kompresji.

Ciekawostka

Artykuł z 1948 roku nazywał się „A Mathematical Theory of Communication”, jednak w przedruku zmieniono mu nazwę na „The Mathematical Theory of Communication”, ponieważ został uznany za bardziej przełomową pracę niż początkowo zdawało się Shannonowi.

Entropia w kontekście teorii informacjiteoria informacjiteorii informacji obliczana jest zgodnie z następującym wzorem:

H ( X )   =   i = 1 n ( p i     log r 1 p i )   =   i = 1 n ( p i     log r p i )

Gdzie:

  • X oznacza zmienną losową dyskretną o zbiorze x1, x2, ..., xn;

  • pi oznacza prawdopodobieństwo wystąpienia danej zmiennej;

  • r oznacza wariant, jaki przyjmujemy podczas obliczeń, jeśli pod r podstawimy 2, to wtedy obliczamy entropię dla bitów.

teorii informacjiteoria informacjiteorii informacji entropią określa się średnią liczbę informacji, która przypada na pojedynczą wiadomość ze źródła. W dużym uproszczeniu „liczba informacji” –w omawianych przez nas przypadkach – oznacza pojedynczy znak, ponieważ każdy pojedynczy znak jest najmniejszą formą informacji, którą chcemy zakodować.

Przykłady obliczania entropii

Entropia wyznacza średnią długość bitów, jaką potrzebujemy do zakodowania pojedynczej informacji, czyli w omawianym przypadku entropia to średnia długość słowa kodowego dla znaku.

Przykład 1

Spróbujmy obliczyć entropię dla wiadomości „AAAAAABBBBBBCCCCDDDD”, w której występują znaki o następujących częstościach:
A: 6
B: 6
C: 4
D: 4
Zbiór X ma następującą postać: {A, B, C, D}.
Zbiór prawdopodobieństw wygląda następująco:
pIndeks dolny A = 0,3
pIndeks dolny B = 0,3
pIndeks dolny C = 0,2
pIndeks dolny D = 0,2
Wzór na entropię przyjmuje zatem następującą postać:

H ( X )   =   p A     log 2 1 p A + p B     log 2 1 p B +   p C     log 2 1 p C +   p D     log 2 1 p D

Co jest równoznaczne z:

H ( X )   =   0 , 3     log 2 1 0 , 3 + 0 , 3     log 2 1 0 , 3 + 0 , 2     log 2 1 0 , 2 + 0 , 2     log 2 1 0 , 2

W celu wyliczenia przedstawionej wartości możemy napisać program albo skorzystać z arkusza kalkulacyjnego:

Linia 1. znak równości 0 przecinek 3 asterysk LOG otwórz nawias okrągły 1 prawy ukośnik otwórz nawias okrągły 0 przecinek 3 zamknij nawias okrągły średnik 2 zamknij nawias okrągły plus 0 przecinek 3 asterysk LOG otwórz nawias okrągły 1 prawy ukośnik otwórz nawias okrągły 0 przecinek 3 zamknij nawias okrągły średnik 2 zamknij nawias okrągły plus 0 przecinek 2 asterysk LOG otwórz nawias okrągły 1 prawy ukośnik otwórz nawias okrągły 0 przecinek 2 zamknij nawias okrągły średnik 2 zamknij nawias okrągły plus 0 przecinek 2 asterysk LOG otwórz nawias okrągły 1 prawy ukośnik otwórz nawias okrągły 0 przecinek 2 zamknij nawias okrągły średnik 2 zamknij nawias okrągły.

Tym samym H(X) = 1,970951.
Oznacza to, że średnia długość informacji może wynosić minimalnie 1,970951 bitu dla kompresji bezstratnej.
W poprzednim e‑materialePAOpIvgHKW poprzednim e‑materiale zakodowaliśmy tę wiadomość 2 razy, raz korzystając z kodowania Shannona, a drugi raz z kodowania Huffmana
Słowa kodowe dla kodowania Shannona:
A: 00
B: 01
C: 100
D: 110
Dla kodowania Huffmana:
A: 00
B: 01
C: 10
D: 11

Efektywność kodowania
Efektywność kodowania

Wyrażona jest wzorem:

H ( X ) Średnia   długość   słowa   kodowego 100 %

Efektywność kodowania zbliża się tym bardziej do 100%, im mocniej zbliżamy się do niemożliwej do przekroczenia średniej długości słowa kodowego dla kodowania bezstratnego. Jeżeli jednak w wyniku kompresji udałoby się nam uzyskać wynik powyżej 100%, wtedy uzyskamy kompresję stratną.

Wiadomość ma 20 znaków (w naszym przypadku 20 informacji).
W przypadku kodowania Shannona wiadomość ma 48 bitów, czyli średnio przypada 2,4 bitu na znak.
W przypadku kodowania Huffmana wiadomość ma 40 bitów, czyli średnio przypada po 2 bity na znak.

Tym samym kodowanie Shannona w omawianym przypadku cechuje się efektywnością około 82,12%, co obliczyliśmy w następujący sposób:

H ( X ) Średnia   długość   słowa   kodowego 100 % = 1 , 970951 2 , 4 100 %   82 , 12 %

Kodowanie Huffmana w omawianym przypadku cechuje się natomiast efektywnością w okolicach 98,55%, co obliczyliśmy następująco:

H ( X ) Średnia   długość   słowa   kodowego 100 % = 1 , 970951 2 100 %   98 , 55 %

Stopień Kompresji dla kodowania oblicza się, używając podanego wcześniej wzoru:

Stopień   kompresji   =   Rozmiar   nieskompresowanych   danych Rozmiar   danych   po   skompresowaniu

Zakładając, że wiadomość była zakodowana zgodnie z kodem ASCII, to każdy znak miałby długość 7 lub 8 bitów przed kompresją, zależnie od tego, w jaki sposób byłby przechowywany w pamięci. Jednak jeśli pamięć adresowana jest bajtowo, to każdy znak zajmowałby 8 bitów.
A zatem wiadomość zajmowałaby 160 bitów przed zakodowaniem.
Po zakodowaniu zgodnie z algorytmem Shannona uzyskaliśmy następujący stopień kompresji:

Stopień   kompresji   =   Rozmiar   nieskompresowanych   danych Rozmiar   danych   po   skompresowaniu = 160 48 3 , 33

Korzystając z kodowania Shannona, uzyskalibyśmy stopień kompresji wiadomości równy 3,33333....

Po zakodowaniu, zgodnie z algorytmem Huffmana, uzyskaliśmy następujący stopień kompresji:

Stopień   kompresji   =   Rozmiar   nieskompresowanych   danych Rozmiar   danych   po   skompresowaniu = 160 40 = 4

W przypadku kodowania Huffmana stopień kompresji byłby równy 4.

Ważne!

Pamiętaj, żeby po kompresji wiadomość zapisać w sposób optymalny, tzn. zapisywać kilka znaków na pojedynczym bajcie. Możliwe jest to np. z zastosowaniem operacji przesunięcia bitowego. Operacja kompresji tekstu nie ma sensu, jeżeli pomimo zmiany kodowania na każdym bajcie zapisujemy tylko po jednym znaku.

Udało nam się obliczyć entropię i efektywność kodowania. Na czym jednak polega zjawisko entropii? W celu lepszego wyjaśnienia tego pojęcia skorzystamy z dwóch kolejnych przykładów.

Przykład 2

Chcemy za pomocą bitów opisać stan pogody w Krakowie.
Założymy, że do wyboru są jedynie takie opcje pogodowe:

  • Pada deszcz – z prawdopodobieństwem, że pada, wynoszącym 0,25.

  • Świeci słońce – z prawdopodobieństwem, że świeci, wynoszącym 0,25.

  • Jest pochmurnie – z prawdopodobieństwem, że jest pochmurnie, wynoszącym 0,25.

  • Jest mgliście – z prawdopodobieństwem, że jest mgliście, wynoszącym 0,25.

Informacje o tym, jaka jest pogoda, chcemy przesłać za pomocą telegrafu do Warszawy. Zakładamy bowiem, że to właśnie w stolicy składowane są informacje o pogodzie panującej we wszystkich miastach w Polsce.

Możemy więc ponumerować stany pogody od 0 do 3 i przypisać każdemu ze stanów odpowiadającą jego numerowi liczbę binarną:

  • Pada deszcz: 00.

  • Świeci słońce: 01.

  • Jest pochmurnie: 10.

  • Jest mgliście: 11.

Entropia tej wiadomości, zgodnie z podanym wcześniej wzorem, wynosi 2 bity, tzn. średnia długość przesyłanej wiadomości ma taką właśnie długość.

Załóżmy, że informacje o pogodzie przesyłamy dwa razy dziennie — rano i wieczorem. Rano przesyłamy „00”, następnie wieczorem ponownie „00”. Drugiego dnia przesyłamy „01”, a następnie „10”. I tak dalej, aż do zamknięcia stacji pogodowej. Za każdym razem długość przesyłanej wiadomości wynosi 2 bity.

Jeśli różnorodność występowania danych zjawisk pogodowych się zmieni, to wtedy kody być może zostaną zmienione. Jednak uśrednione dane podpowiadają centrali, że dotychczasowe spełniają swoją funkcje.

Entropia nie wyznacza jednak dolnego limitu długości wiadomości, a jedynie średnią długość informacji.

Przykład 3

Załóżmy, że z Krakowa przenosimy się do Dublina — miasta w którym bardzo często pada deszcz. Prawdopodobieństwo wystąpienia konkretnej pogody w Dublinie jest następujące:

  • Pada deszcz: 0,5.

  • Jest pochmurnie: 0,25.

  • Jest mgliście: 0,125.

  • Świeci słońce: 0,125.

Jeżeli dodatkowo założymy, że władze Irlandii chcą mieć na bieżąco uaktualnianą pogodę, wówczas kody będą wysyłane często. Istnieje więc ryzyko, że nie będziemy w stanie odróżnić początku i końca kolejnych kodów. Aby jednolity strumień bitów mógł zostać zdekodowany jednoznacznie, użyjemy kodowania prefiksowegokodowanie prefiksowekodowania prefiksowego.

Tym razem skorzystamy z następujących kodów. Tworzymy je zgodnie z algorytmem Huffmana. Zauważ, że żaden kod nie jest początkiem innego kodu.

  • Pada deszcz: 0.

  • Jest pochmurnie: 10.

  • Jest mgliście: 110.

  • Świeci słońce: 111.

Załóżmy, że pogoda rzeczywiście rozkłada się zgodnie z prawdopodobieństwami. Wtedy kolejne wiadomości wyglądałyby w następujący sposób: 0 111 0 110 0 10 0 10, dla uproszczenia oddzieliliśmy kolejne informacje spacjami. Średnia długość przesłanej przez nas informacji wynosi więc 1,75 bita i rzeczywiście, jeśli policzymy entropię tej wiadomości, to będzie ona tyle wynosić.

Istnieje jednak możliwość, że entropia będzie wynosić 0. Taka sytuacja zaistnieje wtedy, gdy jedno zdarzenie ma prawdopodobieństwo 1. To znaczy, gdy informacja o stanie czegoś jest absolutnie trwała i jednoznaczna, niepodlegająca żadnym zmianom. W takim przypadku, odnosząc się do omawianych przykładów, jeśli pogoda w danym rejonie jest zawsze identyczna, to w jakim celu wysyłać wiadomości z jej aktualnym stanem?

Zgodnie ze wzorem na entropię, jeżeli prawdopodobieństwo zdarzenia wynosi 100%, to wtedy:

H ( X )   =   1     log 2 ( 1 )   =   0

W praktyce jeśli prawdopodobieństwa są potęgami dwójki, to wtedy optymalna długość słowa kodowego dla danej informacji będzie równa wykładnikowi tej potęgi pomnożonemu przez minus jeden. Jeżeli więc prawdopodobieństwo wystąpienia danej litery wynosi , to w formie wykładniczej ułamek ten możemy zapisać jako . Optymalna długość takiego słowa wynosiłaby więc 4 bity.

Przykład 4

Dla wiadomości: „AAAABBBBCCCCDDFF” dane będą następujące częstości:

Częstości wystąpienia znaków:
A: 4
B: 4
C: 4
D: 2
F: 2

Prawdopodobieństwa wystąpienia znaków:
A: oczekujemy więc minimalnej długości słowa kodowego 2.
B: oczekujemy więc minimalnej długości słowa kodowego 2.
C: oczekujemy więc minimalnej długości słowa kodowego 2.
D: oczekujemy więc minimalnej długości słowa kodowego 3.
F: oczekujemy więc minimalnej długości słowa kodowego 3.

Słowa kodowe uzyskane za pomocą algorytmu Huffmana:
A: 10
B: 11
C: 00
D: 010
F: 011
Co zgadza się z podanymi wcześniej oczekiwaniami.

Wiadomość miałaby więc postać: 10 10 10 10 11 11 11 11 00 00 00 00 010 010 011 011, co daje nam średnią długość 2,25 bitu na informacje. Można to ustalić, obliczając sumę wszystkich bitów, jakie ma końcowa wiadomość, a następnie dzieląc je przez liczbę wszystkich informacji (w tym wypadku znaków), jakie były w wiadomości pierwotnej.

Liczba bitów w zakodowanej wiadomości wynosi 36, a liczba kodowanych znaków jest równa 16. Stąd właśnie średnia długość słowa kodowego na informację wynosi 2,25 bitu. Entropię obliczymy z podanego wzoru (składniki – dla uzyskania prawdopodobieństwa tej samej wartości – zamieniono na iloczyn):

Entropia wynosi 2,25 bitu. Oznacza to, że w tym przykładzie uzyskaliśmy najlepszą możliwą do uzyskania kompresję bezstratną, ponieważ efektywność kodowania wynosi w takiej sytuacji 100%.

Jeżeli znaki kodowane były zgodnie z kodem ASCII, czyli na 7 lub 8 (w przypadku extended ASCII) bitach, ale zakładając, że pamięć adresowana jest bajtowo, to wiadomość przed zakodowaniem miałaby długość 128 bitów. Po zakodowaniu ma długość jedynie 36 bitów.

S t o p i e ń   k o m p r e s j i   =   R o z m i a r   n i e s k o m p r e s o w a n y c h   d a n y c h R o z m i a r   d a n y c h   p o   s k o m p r e s o w a n i u = 128 36 3 , 56

Stopień kompresji uzyskany dla tej wiadomości wynosi więc około 3,56.
Z racji tego, że efektywność kodowania wynosi 100%, jest to najmniejsza możliwa bezstratna kompresja, jaką da się uzyskać dla tej wiadomości. Przy czym zakładamy, że za pojedynczą informację przyjmiemy znak.

Jak wspominaliśmy, istnieje pewien limit kompresji, który da się osiągnąć metodami bezstratnymikompresja bezstratnametodami bezstratnymi. W przedstawionym przykładzie uzyskaliśmy najlepszy możliwy stopień kompresji bezstratnej przy założeniu, że jednostka informacji to pojedynczy znak.

Dla wiadomości z omawianego przykładu moglibyśmy równie dobrze stworzyć następujący słownik słów kodowych:
AAAA: 10
BBBB: 11
CCCC: 00
DD: 010
FF: 011

Słownik ten jest poprawny, jednoznacznie dekodowalny. Zakodowana zgodnie z nim wiadomość miałaby następującą postać bitową: 10 11 00 010 011, a uzyskany stopień kompresji wynosiłby około 10,67.

Wszystko się w tym przypadku zgadza i nie ma żadnego błędu. Problem w tym, że kodowaliśmy całe podciągi znaków, zamiast pojedynczych liter. Istnieje wersja kodowania Huffmana, uzyskująca większe stopnie kompresji, właśnie poprzez kodowanie całych podciągów.

Zmieniła się również entropia wiadomości, ponieważ zmianie uległa także „jednostka informacji” ze znaku na ciąg znaków.

W dwóch przykładach kodowaliśmy informacje o stanie pogody. Pogoda jest złożonym problemem, a w dużym uproszczeniu udało nam się ją sprowadzić do jedynie kilku bitów na każdy jej stan. Analogicznie duże ciągi znaków mogą być uznawane za całe słowa kodowe. Można nawet kodować całe słowa jako słowa kodowe, o ile te często się powtarzają. Nie omawialiśmy jednak przykładów, w których kodujemy więcej niż pojedyncze symbole, ponieważ jest to dużo bardziej złożone.

A zatem kodowanie Huffmana z przykładu czwartego pozwoliło nam skompresować wiadomość maksymalnie bezstratnie przy założeniu, że „jednostką informacji”, jaką kodujemy, jest znak.

Załóżmy jednak, że ktoś nie wierzy, że wiadomości nie da się dalej zmniejszyć i będzie próbował zakodować jedną wiadomość wielokrotnie. Czy ma szansę na powodzenie?

Odpowiedz brzmi: to zależy.

Jeśli spróbujemy zakodować, nie zmieniając podstawowej „jednostki informacji” (tzn. jeśli zakodujemy pojedyncze znaki, a potem ponownie spróbujemy zakodować pojedyncze znaki), kompresja się nie powiedzie.

Jeśli jednak spróbujemy zakodować ponownie wiadomość, zmieniając podstawową „jednostkę informacji” na podciąg znaków, to wiadomość będzie mniejsza.
Jednakże będzie ona jednocześnie większa niż mogła by być, gdybyśmy od razu kodowali całe podciągi znaków. Wynika to z faktu, że przy każdej użytej kompresji do samej wiadomości dołączana jest w jakiejś formie książka słów kodowychksiążka kodowaksiążka słów kodowych.
Czyli o ile wiadomość rzeczywiście się zmniejsza zgodnie z obliczonym stopniem kompresji, o tyle do samej wiadomości należy dostarczyć jeszcze książkę kodową. Nie dołączaliśmy wielkości książki kodowej w obliczeniach, ponieważ w rzeczywistych sytuacjach jest ona pomijalnie mała.

Zakładając jednak, że próbujemy kodować ciągi bitów, to z następującej wiadomości: 10 10 10 10 11 11 11 11 11 00 00 00 00 010 010 011 011 mamy częstości:

11: 5

10: 4

00: 4

010: 2

011: 2

Stąd przedstawione ciągi bitowe, korzystając z algorytmu Huffmana, możemy zakodować w następujący sposób:

  • ciąg bitów: 10 i słowo kodowe: 11

  • ciąg bitów: 11 i słowo kodowe: 00

  • ciąg bitów: 00 i słowo kodowe: 10

  • ciąg bitów: 010 i słowo kodowe: 010

  • ciąg bitów: 011 i słowo kodowe: 011

Możemy zauważyć, że najczęściej pojawiającym się ciągiem bitów jest 11, któremu algorytm przypisuje kod 00. Program kompresujący zawrze jednak w wiadomości nową książkę kodową. Za każdą próbą kompresji plik — zamiast maleć — rósłby o rozmiar nowej książki kodowej. Co więcej, samo kodowanie nie wpłynie na zmniejszenie długości ciągów. W zaprezentowanym przykładzie algorytm wygeneruje słowa kodowe o takiej samej długości jak wprowadzone ciągi bitów.

Reasumując: wielokrotna kompresja bezstratna powoduje jedynie zwiększanie rozmiaru kompresowanego pliku. Jedyną możliwością na jeszcze większe zmniejszenie rozmiaru pliku jest w tym przypadku zmiana algorytmu kompresującego. Przy czym ten też uzyska lepszy stopień kompresji, jeśli będzie kompresował oryginalny plik.

Warto jeszcze dodać, że jeśli wiadomość miałaby postać: ABCCBABCADACFBDF, to znaczy litery występowałyby w niej w kolejności losowej, to nie dałoby się pogrupować tego ciągu w sensowne podciągi, przynajmniej na pierwszy rzut oka.

Już wiesz

Kodowanie arytmetyczne polega na:

  • zliczeniu częstości występowania danych symboli/słów/znaków,

  • obliczeniu prawdopodobieństwa wystąpienia każdego z symboli i pogrupowaniu ich od największego do najmniejszego,

  • kodowania wiadomości poprzez wchodzenie w coraz mniejsze przedziały wartości.

Dla wiadomości: BAB# przedziały mogą być zrealizowane graficznie w następujący sposób:

RrDPlDRn3RRUD
Źródło: Contentplus.pl Sp. z o.o., licencja: CC BY-SA 3.0.

Kodowanie arytmetyczne jest ograniczone w świecie fizycznym, ale czy jest również ograniczone w świecie wirtualnym?

Odpowiedź brzmi: Tak.

Liczby po przecinku również mają swoje ograniczenia. Jeśli w komputerze spróbujemy w odpowiednim typie podzielić 1 przez 3, a następnie pomnożyć przez 3, to nie uzyskamy z powrotem jedynki.
Dzieje się tak, ponieważ wartości zmiennoprzecinkowe są zaokrąglane. Jednym ze standardów obsługujących liczby zmiennoprzecinkowe jest standard IEEE‑754, który umożliwia zapisywanie małych liczb, tylko w konsekwencji tracą one swoją precyzję.

Słownik

kodowanie prefiksowe
kodowanie prefiksowe

kodowanie, w którym żaden kod nie jest prefiksem innego kodu (żaden kod nie jest początkiem innego kodu); dzięki temu możliwe jest dekodowanie ciągu kodów bez wyróżnienia końców i początków kolejnych kodów

kompresja bezstratna
kompresja bezstratna

metoda zapisu informacji do postaci zajmującej mniej pamięci, a jednocześnie umożliwiająca odtworzenie informacji z postaci skompresowanej do identycznej postaci początkowej

książka kodowa
książka kodowa

zbiór słów kodowych przyporządkowanych do informacji (np. do pojedynczego znaku)

teoria informacji
teoria informacji

nauka o przechowywaniu, przenoszeniu i zliczaniu informacji; dyscyplina ta znajduje się na pograniczu matematyki, statystyki, informatyki i elektroniki