Rozszerzenie źródła

Teoria Informacji i Kodowania


Aplikacja dla danego alfabetu źródłowego X = {x1,x2,..., xn} i niezerowych częstościach występowania elementów pi = p(xi), i = 1,2,..,n wyznacza natychmiastowy binarny kod optymalny (kod Huffmana) o długościach słów di, tabelę kodowania elementów xn w X, średnią długość słowa kodowego - E(X) , entropię źródła - H(X), sprawność kodu -η (X), drzewo kodowe oraz k-te rozszerzenie źródła X oznaczone jako Xk. Dla źródła Xk wyznacza E(Xk), H(Xk), η(Xk), drzewo kodowe oraz średnią liczbę bitów przypadających na jeden element alfabetu źródłowego. Ograniczenie aplikacji dla danego alfabetu X i k-tego rozszerzenia wynosi nk <= 210.

Źródło podstawowe X

Kodowanie wiadomości
i xi pi di K(xi)
Pokaz więcej
Pokaz wszystko

Średnia długość słowa kodowego
\[ E(X) = \sum\limits_{i=1}^n {d_i p_i} = \]
Entropia źródła
\[ H(X) = -\sum\limits_{i=1}^n {p_i \log_2 p_i} = \]
Sprawość kodu
\[ \eta(X) = \frac{H(X)}{E(X)} = \]
Drzewo kodu wyznaczone algorytmem Huffmana (Aby zobaczyć poddrzewo wierzchołka z niego wychodzącę skieruj kursor myszy na ten wierzchołek i kliknij w niego.)

Źródło Rozszerzone Xk

Kodowanie wiadomości
i xi pi di K(xi)
Pokaz więcej
Pokaz wszystko
Średnia długość słowa kodowego
\[ E(X^k) = \sum\limits_{i=1}^n {d_i p_i} = \]
Entropia źródła
\[ H(X^k) = -\sum\limits_{i=1}^n {p_i\log_2 p_i} = \]
Sprawość kodu
\[ \eta(X^k) = \frac{H(X^k)}{E(X^k)} = \]
Średnia ilość bitów na element alfabetu źródłowego
\[\frac{1}{k} E(X^k)= \]
Drzewo kodu wyznaczone algorytmem Huffmana (Aby zobaczyć poddrzewo wierzchołka z niego wychodzącę skieruj kursor myszy na ten wierzchołek i kliknij w niego.)