Bài giảng Cơ sở lí thuyết thông tin - Chương 2: Mã hóa. Mã thống kê tối ưu - Phạm Hải Đăng
Mã thống kê – Entropy của nguồn tin nhị phân
Bản tin binary gồm 2 kí tự A,B
P(A)=1-P(B)
Nhận xét:
- Giá trị Entropy cực đại H=1 khi A và B có
xác suất như nhau (0.5). Khi đó độ dài
mã trung bình là 1 bit – tối ưu.
- Trong các trường hợp còn lại, H<1, cần
lựa chọn mã khác để đạt hiệu quả tốt
hơn (code efficiency)
Mã thống kê – Định nghĩa và phân loại
Entropy cung cấp thông tin về độ dài từ mã cần thiết cho việc mã hóa
nguồn tin.
Điều kiện tiên quyết của mã thống kê là cần biết trước xác suất xuất
hiện của các kí tự (symbol) trong nguồn tin.
Bộ mã hóa thống kê sẽ gán các từ mã (code word) có độ dài ngắn vào
các kí tự có xác suất lớn, và ngược lại, gán từ mã có độ dài lớn cho các
kí tự có xác suất nhỏ => Giảm kích thước của nguồn tin.
Các thuật toán của mã hóa thống kê
Mã Shannon-Fano
Mã Huffman
10 trang |
Chia sẻ: hachi492 | Ngày: 07/01/2022 | Lượt xem: 553 | Lượt tải: 0
Bạn đang xem nội dung tài liệu Bài giảng Cơ sở lí thuyết thông tin - Chương 2: Mã hóa. Mã thống kê tối ưu - Phạm Hải Đăng, để tải tài liệu về máy bạn click vào nút DOWNLOAD ở trên
Mã hóa – Mã thống kê tối ưu
Khái niệm mã hóa, các thông số của mã hóa
Mã thống kê
Entropy
Mã Shannon-Fano
Mã Huffman
13/02/2014 Slice 1 Trường ĐH Bách Khoa Hà Nội
Mã thống kê – Khái niệm về Entropy
Entropy trong lí thuyết thông tin là phép đo định lượng về
“thông tin” của nguồn tin.
Nguồn tin có Entropy lớn nội dung ngẫu nhiên
Nguồn tin có Entropy nhỏ nội dung có có cấu trúc,
lặp lại.
Entropy được sử dụng trong việc mã hóa – nén thông tin.
Nếu phân bố xác suất PDF của nguồn tin được biết trước,
giá trị Entropy cho biết số bit trung bình cần thiết để mã
hóa nguồn tin.
13/02/2014 Slice 2 Trường ĐH Bách Khoa Hà Nội
Mã thống kê – Tính giá trị Entropy
H(X) – Entropy của nguồn tin
X – Nguồn tin với các kí tự x
b=2 - bit thông tin
Ví dụ:
H(X)=2.04
13/02/2014 Slice 3 Trường ĐH Bách Khoa Hà Nội
Xx
b xpxpXH )(log).()(
symbol Tần suất p(x) -p(x).log2p(x)
a 5 0.45 0.52
b 2 0.18 0.45
r 2 0.18 0.45
c 1 0.09 0.31
d 1 0.09 0.31
11 2.04
Mã thống kê – Tính chất của Entropy
Ví dụ: Nguồn tin “abracadabra”
H(X)=2.04
Nguồn tin “abracadabra” có thể mã hóa với mã có độ dài trung bình
2.04bit/kí tự. Bản tin mã hóa theo cách này được gọi là mã tối ưu hay
mã hóa Entropy.
13/02/2014 Slice 4 Trường ĐH Bách Khoa Hà Nội
Xx
b xpxpXH )(log).()(
symbol Tần suất p(x) -p(x).log2p(x)
a 5 0.45 0.52
b 2 0.18 0.45
r 2 0.18 0.45
c 1 0.09 0.31
d 1 0.09 0.31
11 2.04
Mã thống kê – Entropy của nguồn tin nhị phân
Bản tin binary gồm 2 kí tự A,B
P(A)=1-P(B)
Nhận xét:
- Giá trị Entropy cực đại H=1 khi A và B có
xác suất như nhau (0.5). Khi đó độ dài
mã trung bình là 1 bit – tối ưu.
- Trong các trường hợp còn lại, H<1, cần
lựa chọn mã khác để đạt hiệu quả tốt
hơn (code efficiency)
13/02/2014 Slice 5 Trường ĐH Bách Khoa Hà Nội
Mã thống kê – Định nghĩa và phân loại
Entropy cung cấp thông tin về độ dài từ mã cần thiết cho việc mã hóa
nguồn tin.
Điều kiện tiên quyết của mã thống kê là cần biết trước xác suất xuất
hiện của các kí tự (symbol) trong nguồn tin.
Bộ mã hóa thống kê sẽ gán các từ mã (code word) có độ dài ngắn vào
các kí tự có xác suất lớn, và ngược lại, gán từ mã có độ dài lớn cho các
kí tự có xác suất nhỏ => Giảm kích thước của nguồn tin.
Các thuật toán của mã hóa thống kê
Mã Shannon-Fano
Mã Huffman
13/02/2014 Slice 6 Trường ĐH Bách Khoa Hà Nội
Mã Shannon-Fano
Do Shannon và Fano độc lập xây dựng dựa trên lí thuyết Entropy.
Mã Shannon-Fanon được xây dựng nhằm tối ưu hóa độ dài của từng
từ mã (code word) tiệm cận với giá trị -logp(x).
Ví dụ:
H(X)=2.1858
13/02/2014 Slice 7 Trường ĐH Bách Khoa Hà Nội
symbol Tần suất p(x)
Lượng tin riêng
-log2p(x)
A 15 0.38 1.38
B 7 0.18 2.48
C 6 0.15 2.70
D 6 0.15 2.70
E 5 0.13 2.96
0 1
0 1 0
1
0 1
15+7=22
symbol Code word
A 00
B 01
C 10
D 110
E 111
6+6+5=17
Mã Huffman
Mã Huffman được xây dựng dựa trên lí thuyết Entropy
Mã Huffman xây dựng cây nhị phân và gán giá trị bit từ dưới lên
(bottom-up) nhằm tối ưu hóa kích thước của toàn bộ bản tin.
Ví dụ:
H(X)=2.1858
13/02/2014 Slice 8 Trường ĐH Bách Khoa Hà Nội
symbol Tần suất p(x)
Lượng tin riêng
-log2p(x)
A 15 0.38 1.38
B 7 0.18 2.48
C 6 0.15 2.70
D 6 0.15 2.70
E 5 0.13 2.96
0
symbol Code word
A 0
B 100
C 101
D 110
E 111
1
0 1
1 1 0 0
So sánh giữa mã Shannon-Fano và Huffman
13/02/2014 Slice 9 Trường ĐH Bách Khoa Hà Nội
Mã Shannon-Fano: các từ mã có kích thước gần với lượng
tin riêng của kí tự (sai số ±1)
Mã Huffman đảm bảo kích thước của bản tin mã hóa nhỏ
nhất
Kích thước bản tin
H(X)=2.1858
symbol
Shannon-Fano
Code word
Huffman
Code word
Tần suất Lượng tin riêng
-log2p(x)
A 00 0 15 1.38
B 01 100 7 2.48
C 10 101 6 2.7
D 110 110 6 2.7
E 111 111 5 2.96
bitbitbitL
bitbitbitL
Huffman
Shannon
87)5667(3151
89)56(3)6715(2
symbolbitbitR
symbolbitbitR
Huffman
Shannon
/23.239/87
/28.239/89
Vi du
13/02/2014 Slice 10 Trường ĐH Bách Khoa Hà Nội
Các file đính kèm theo tài liệu này:
- bai_giang_co_so_li_thuyet_thong_tin_chuong_2_ma_hoa_ma_thong.pdf