Tải bản đầy đủ (.pdf) (28 trang)

Mã hóa tối ưu nguồn rời rạc không nhớ

Bạn đang xem bản rút gọn của tài liệu. Xem và tải ngay bản đầy đủ của tài liệu tại đây (303.63 KB, 28 trang )

Trang 100
Bài 7 Mã hóa tối ưu
nguồn rời rạc không nhớ
7.1 Các định lý về giới hạn trên và dưới của chiều dài trung
bình
7.2 Mã hoá theo Shannon và Fano
7.3 Phương pháp mã hoá tối ưu theo Huffman
Trang 101
Các định lý về giới hạn trên và dưới của
chiều dài trung bình

Định lý 7.1

Cho nguồn tin X = {
a
1
, ...,
a
K
} với các xác suất tương ứng
p
1
,
...,
p
K
. Một bộ mã phân tách được bất kỳ cho nguồn này với cơ
số mã
m
, chiều dài trung bình từ mã sẽ thoả (trong đó
H


(X) là
entropy của nguồn với cơ số của logarit là
m
).

Chứng minh
( )
m
H
l
log
X

∑∑∑
=

==
=−−=−
K
i
i
l
i
K
i
ii
K
i
ii
p

m
pmlpppmlXH
i
111
lnlnlnln)(
01111
11
=−≤−






=








−≤
∑∑
=

=

K

i
l
K
i
i
l
i
i
i
m
p
m
p
Trang 102
Các định lý về giới hạn trên và dưới của
chiều dài trung bình (tt)

Chú ý dấu “=” xảy ra khi và chỉ khi , tức là

Định lý 7.2

Cho nguồn tin X = {a
1
, ..., a
K
} với các xác suất tương ứng p
1
,
..., p
K

, có thể xây dựng một mã prefix với cơ số m sao cho

Chứng minh

Chọn chiều dài l
i
của từ mã cho tin a
i
theo qui tắc

Chúng ta có
( )
1
log
X
+<
m
H
l
1=

i
l
p
m
i
i
l
i
mp


=
⎡⎤
i
p
mi
l log−=
1
11
=≤⇒
∑∑
==

K
i
i
K
i
l
pm
i
⎡⎤
i
lp
mi
p
mi
pmll
iii
≤⇒−≥⇒−=


loglog
Trang 103
Chứng minh định lý (tt)

Vì các chiều dài được chọn này thoã bất đẳng thức Kraft nên
tồn tại một mã prefix tương ứng có các chiều dài này.

Tiếp tục chúng ta có

Điều này hoàn tất chứng minh của chúng ta.
⎡⎤
1loglog +−<⇒−=
ii
p
mi
p
mi
ll
∑∑∑
===
+−<
K
i
i
K
i
p
mi
K

i
ii
pplp
i
111
log
( )
1
log
X
1
log
log
1
+=+








−=

=
m
H
m
pp

K
i
ii
Trang 104
Hệ quả

Có thể mã hoá một nguồn mà có chiều dài trung bình tiếp cận
đến
với sai số nhỏ tuỳ ý.

Chúng ta thực hiện điều này bằng cách mã hoá các dãy N tin
của nguồn X = {a
1
, ..., a
K
} theo Định lý 7.2.

Lúc này chúng ta có nguồn mới với kích thước là K
N
, mỗi phần
tử là một dãy của N tin được lấy độc lập từ nguồn X.

Entropy của nguồn mới này là NH(X) và chiều dài trung bình
các từ mã của nó theo định nghĩa sẽ là N lần chiều dài trung
bình các từ mã của nguồn ban đầu, .

Áp dụng Định lý 7.1 và Định lý 7.2 đối với nguồn mới chúng ta

( )
m

H
log
X
l
Trang 105
Hệ quả (tt)

Áp dụng Định lý 7.1 và Định lý 7.2 đối với nguồn mới ta có

Vì N có thể lớn tuỳ ý, nên tiếp cận đến H(X) / log m với tốc
độ tương đương với 1/N tiến đến 0 khi N tiến ra vô cùng.

Để đánh giá một phương pháp mã hoá nào đólàtốt hay không
người ta đưa ra khái niệm hiệu suất lập mã.

Hiệu suất lập mã

Hiệu suất lập mã h được định nghĩa bằng tỉ số của entropy của
nguồn với chiều dài trung bình của bộ mã được lập
() ( )
1
log
X
log
X
+<≤
m
NH
lN
m

NH
( ) ( )
Nm
H
l
m
H 1
log
X
log
X
+<≤

l
( )
l
H
h
X
=
Trang 106
Mã hóa tối ưu

Là phép mã hóa mà kết quả là một bộ mã có chiều dài trung
bình là nhỏ nhất trong tất cả các phép mã hóa có thể có cho
nguồn.

Bộ mã của phép mã hóa tối ưu cho nguồn được gọi là bộ mã tối
ưu.


Ba phép mã hóa: Shannon, Fano, Huffman.

Trong mỗi phép mã hóa chúng ta sẽ mã hóa với cơ số mã m = 2
trước (mã hóa nhị phân), sau đósẽ mở rộng cho trường hợp m
> 2.
Trang 107
Phương pháp mã hoá Shannon
B1.Sắp xếp các xác suất theo thứ tự giảm dần. Không mất tổng
quát giả sử p
1
≥ ... ≥ p
K
.
B2. Định nghĩa q
1
= 0, q
i
= , ∀ i = 1, 2, ..., K.
B3. Đổi q
i
sang cơ số 2, (biểu diễn q
i
trong cơ số 2) sẽ được một
chuỗi nhị phân
B4.Từ mã được gán cho a
i
là l
i
kí hiệu lấy từ vị trí sau dấu phẩy
của chuỗi nhị phân tương ứng với q

i
, trong đó l
i
=


=
1
1
i
j
j
p







i
p
2
log
Trang 108
Ví dụ

Hãy mã hoá nguồn S = {a
1
, a

2
, a
3
, a
4
, a
5
, a
6
} với các xác suất
lần lượt là 0,3; 0,25; 0,2; 0,12; 0,08; 0,05.

H = 2.36, = 2,75, h = 2,36/2,75 = 85,82%


=
=
1
1
i
j
ji
qq
⎡ ⎤
ii
pl
2
log−=
Tin
a

i
Xác suất
p
i
Biểu diễn
nhị phân
Từ mã
w
i
a
1
0,3 0 0,00 2 00
a
2
0,25 0,3 0,01001... 2 01
a
3
0,2 0,55 0,10001... 3 100
a
4
0,12 0,75 0,11000... 4 1100
a
5
0,08 0,87 0,11011... 4 1101
a
6
0,05 0,95 0,111100... 5 11110
l
Trang 109
Nhận xét - Bài tập


Phương pháp Shannon cho kết quả là một mã prefix.

Phương pháp Shannon có thể mở rộng cho trường hợp m > 2

Bài tập

Hãy mã hoá các nguồn sau bằng phương pháp Shannon. Tính
entropy của nguồn, chiều dài trung bình và hiệu suất của phép
mã hóa.

S
1
= {a
1
, a
2
, a
3
, a
4
, a
5
, a
6
} với các xác suất lần lượt là 0,25;
0,21; 0,19; 0,16; 0,14; 0,05.

S
2

= {a
1
, a
2
, a
3
, a
4
, a
5
, a
6
, a
7
, a
8
} với các xác suất lần lượt là
0,21; 0,18; 0,15; 0,14; 0,12; 0,01; 0,06 ; 0,04.

S
3
= {a
1
, a
2
, a
3
, a
4
, a

5
, a
6
, a
7
, a
8
, a
9
} với các xác suất lần lượt
là 0,25; 0,19; 0,15; 0,11; 0,09; 0,07; 0,06; 0,04; 0,04.
Trang 110
Phương pháp mã hoá Fano
B1.Sắp xếp các xác suất theo thứ tự giảm dần. Không mất tổng
quát giả sử p
1
≥ ... ≥ p
K
.
B2. Phân các xác suất thành 2 nhóm có tổng xác suất gần bằng
nhau nhất.
B3. Gán cho hai nhóm lần lượt các kí hiệu 0 và 1 (hoặc ngược
lại).
B4.Lặp lại bước 2 cho các nhóm con cho đến khi không thể tiếp
tục được nữa.
B5.Từ mã ứng với mỗi tin là chuỗi bao gồm các kí hiệu theo thứ
tự lần lượt được gán cho các nhóm có chứa xác suất tương
ứng của tin.

×