Bài giảng Xử lý ngôn ngữ tự nhiên - Chương 7: Phân loại tin tự động cho báo điện - Lê Thanh Hương

Các thuật toán Apriori, FIHC tuy được cài đặt để sử dụng trong thời gian xử lý “offline” nhưng chi phí tính toán cũng khá lớn. Æ cải tiến các thuật toán này để giảm chi phí lập nhóm ề ố ấ 19 „ Việc ti n xử lý văn bản như xử lý th ng nh t font chữ, định dạng file đầu vào và đặc biệt là quá trình tách thuật ngữ có ảnh hưởng quan trọng đối với hệ thống xử lý văn bản nói chung và ứng dụng phân loại tin tự động nói riêng. Đây cũng là một vấn đề cần được nghiên cứu sâu hơn và đưa ra các giải thuật tốt hơn

pdf4 trang | Chia sẻ: huongthu9 | Lượt xem: 341 | Lượt tải: 0download
Bạn đang xem nội dung tài liệu Bài giảng Xử lý ngôn ngữ tự nhiên - Chương 7: Phân loại tin tự động cho báo điện - Lê Thanh Hương, để tải tài liệu về máy bạn click vào nút DOWNLOAD ở trên
1PHÂN LOẠI TIN TỰ ĐỘNG CHO BÁO ĐIỆN TỬ 1 1. Tổng quan Ứng dụng của Phân loại văn bản „ Phân loại các tài liệu trong các thư viện „ Phân loại trong quá trình tác nghiệp của các báo điện tử. 2 „ Phân chia sắp xếp lại các luận văn, đồ án trong các trường Đại học. „ Bộ máy tìm kiếm muốn phân chia các tài liệu trả về thành các chuyên mục Æ người đọc dễ nắm bắt được nội dung ban đầu của các kết quả tìm được. 1. Tổng quan „ Ứng dụng “Phân loại tin tự động cho báo điện tử” nhằm tìm hiểu và thử nghiệm các phương pháp phân loại văn bản áp dụng trên Tiếng Việt. 3 „ Kết hợp giữa hai phương pháp đã được chứng minh có hiệu quả cao để giải quyết hai bài toán khác nhau là Phân loại và Lập nhóm văn bản Æ đề xuất một mô hình cải tiến, phù hợp với bài toán 1. Tổng quan Sơ đồ minh họa quá trình phân loại ầ Mô hình hóa VB Document Vector 4 VB c n phân lớp Các VB mẫu đã phân lớp Pha lập nhóm Vector trọng tâm mỗi nhóm Kết luận phân nhóm Kết luận phân loại Tính độ tương tự 2. Các phương pháp thực hiện Pha lập nhóm Vector trọng tâm ỗi hó 5 Các VB mẫu đã phân lớp Pha lập nhóm m n m „ Pha lập nhóm được thực hiện trước, một cách “offline” Æđể xác định vector trọng tâm cho mỗi nhóm cùng các thông tin truy hồi 2. Các phương pháp thực hiện (tiếp) Tại sao cần sử dụng các phương pháp lập nhóm văn bản dựa trên thuật ngữ xuất hiện thường xuyên ? „ Kỹ thuật lập nhóm này phù hợp với yêu cầu “offline”, các thuật toán áp dụng cho phương pháp này có độ chính xác cao tuy thời gian xử lý hậ à hi hí lớ h khô ầ thiết lắ khi ử lý ffli 6 c m v c p n, n ưng ng c n m x o ne. „ Thuật ngữ thường xuyên là các thuật ngư xuất hiện nhiều lần trong văn bản hoặc trong một tập văn bản, các thuật ngữ phải có ý nghĩa, chúng đại diện cho nội dung toàn văn bản. „ Các thuật ngữ thường xuyên tạo nền tảng của việc khai thác quy tắc kết hợp. „ Làm giảm được số chiều của vector biểu diễn tài liệu. 2Giảm bớt số lượng các tập mục cần xét „ Nguyên tắc của giải thuật Apriori – Loại bỏ (prunning) dựa trên độ hỗ trợ „ Nếu một tập mục là thường xuyên, thì tất cả các tập con (subsets) của nó đều là các tập mục thường xuyên „ Nếu một tập mục là không thường xuyên (not frequent), thì tất cả các tập cha (supersets) của nó đều là các tập mục không thường xuyên „ Nguyên tắc của giải thuật Apriori dựa trên đặc tính không đơn điệu (anti-monotone) của độ hỗ trợ „ Độ hỗ trợ của một tập mục nhỏ hơn độ hỗ trợ của các tập con của nó 7Khai Phá Dữ Liệu )()()(:, YsXsYXYX ≥⇒⊆∀ Apriori: Loại bỏ dựa trên độ hỗ trợ null AB AC AD AE BC BD BE CD CE DE A B C D E 8Khai Phá Dữ Liệu „Tập mục không thường xuyên ABC ABD ABE ACD ACE ADE BCD BCE BDE CDE ABCD ABCE ABDE ACDE BCDE ABCDE „Các tập cha của tập mục đó (AB) bị loại bỏ 2. Các phương pháp thực hiện (tiếp) Giải thuật Apriori Biến Ck: Các tập thuật ngữ ứng cử mức k. Biến Lk: Các tập thuật ngữ thường xuyên mức k. „Bước 1 : Giải thuật Apriori – tính toán các tập thuật ngữ thường xuyên 9 L1 = {Các thuật ngữ thường xuyên mức 1}; For (k=1; Lk!=Ø; k++) do Begin // Lặp lại cho đến khi không có thêm bất kỳ tập mục thường xuyên nào mới //Bước kết hợp: Kết hợp Lk với bản thân nó để tạo ra Ck+1 //Bước cắt tỉa: Loại bỏ (k+1)-itemsets từ Ck+1 chứa k-itemsets không thường xuyên Ck+1 = các ứng cử viên được tạo ra từ Lk For mỗi tài liệu t trong tập văn bản do Tăng số lượng của tất cả các ứng cử viên trong Ck+1 có chứa trong t Lk+1 = các ứng cử viên trong Ck+1 có GS > min_support End Return Lk 2. Các phương pháp thực hiện (tiếp) Bước 2 : sử dụng thuât toán FIHC để phân nhóm các tập thuật ngữ thường xuyên ra. (Frequent Item-based Hierarchical Clustering) 10 Thuật toán FIHC bao gồm hai giai đoạn : „ Xây dựng các Cluster khởi tạo. „ Dựng cây Cluster. 3.Chương trình thực nghiệm Mô hình „ Phần tiền xử lý văn bản làm các công việc như tách thuật ngữ, phân tích tổ chức dữ liệu, tổ chức từ điển. 11 „ Pha lập nhóm văn bản, sử dụng thuật toán Apriori và FIHC. „ Khi phân loại một văn bản mới ứng dụng chỉ việc đọc các thông tin về vector trọng tâm, so sánh với văn bản đầu vào đã được vector hóa Æ quyết định phân loại. 3.Chương trình thực nghiệm Phần tiền xử lý văn bản. „ Tách thuật ngữ tiếng Việt : Sử dụng thuật toán đối sánh thuật ngữ dài nhất từ bên phải qua. 12 Ví dụ : Ban công tác đã xác định được vấn đề. Khi sử dụng thuật toán từ phải qua, ta sẽ tách được chính xác câu này. Kết quả như sau : vấn đề, được, xác định, đã, công tác, ban. Và ta chỉ cần đảo ngược lại thứ tự này. 33.Chương trình thực nghiệm Phần tiền xử lý văn bản. „ Phân tích tổ chức dữ liệu: (1) Tổ chức từ điển dưới dạng cấu trúc như sau: 13 3.Chương trình thực nghiệm Phân tích tổ chức dữ liệu: Xây dựng 3 File đầu vào Ví dụ nội dung 1 file ClassID.txt 0: Dulich1 File ClassID.txt là 14 1: Giaoduc 2: Oto xe may 3: Suckhoe 4: The thao 5: Vitinh 6: Kinhdoanh . file chứa ID và tên của các class, được tạo bằng cách duyệt qua tất cả các thư mục con của thư mục chứa tập văn bản mẫu. 3.Chương trình thực nghiệm 2. File ThreeLine.txt chứa các thông số chung của quá trình lập nhóm, gồm 3 dòng: „ Tổng số nhóm phân ra từ tập văn bản mẫu Số lớp ( số thư mục con ) của tập văn bản mẫu 15 „ . „ Số lượng các nhóm phân bổ vào từng lớp tương ứng bên file ClassID.txt. „ Ví dụ nội dung một file ThreeLine.txt : 174 8 20 22 22 16 27 14 14 39 3.Chương trình thực nghiệm 3. File InputForYou.txt chứa các vectơ trọng tâm của tất cả các nhóm, 1 vectơ / dòng. „ Thông tin trên 1 dòng Số ăn bản th ộc nhóm/ ectơ trọng tâm đó 16 „ v u v ; „ ID của lớp mà nhóm đó thuộc về; „ ID của nhóm đó trong lớp; „ Các cặp (Term ID – Trọng số) thể hiện cho các chiều của vector trọng tâm 4. Đánh giá kết quả Xây dựng mẫu kiểm thử „ Tập kiểm thử được xây dựng từ các bài báo thuộc các lĩnh vực khác nhau của báo điện tử VnExpress ( vnexpress net) 17 . . „ Dữ liệu kiểm thử là 56 bản tin mới nhất trên VNExpress thuộc các chủ đề Giáo dục, Du lịch, Kinh doanh, Ô tô xe máy, Thể Thao, Pháp luật, Vi Tính, Sức khoẻ (theo sự phân chia chủ đề của báo) đã được ghi lại theo chủ đề từ trước. „ Độ chính xác : 94,64%. 4. Đánh giá kết quả „ Mô hình cải tiến đạt được độ chính xác cao. „ Dữ liệu nói chung đã tối ưu „ Các chức năng được phân tách rõ ràng làm giảm chi phí tài 18 nguyên và tăng tốc độ phân lớp lên rất nhiều. „ Hai thuật toán Apriori, FIHC tuy đạt được độ chính xác cao nhưng chưa ổn định. 4Hướng phát triển „ Các thuật toán Apriori, FIHC tuy được cài đặt để sử dụng trong thời gian xử lý “offline” nhưng chi phí tính toán cũng khá lớn. Æ cải tiến các thuật toán này để giảm chi phí lập nhóm ề ố ấ 19 „ Việc ti n xử lý văn bản như xử lý th ng nh t font chữ, định dạng file đầu vào và đặc biệt là quá trình tách thuật ngữ có ảnh hưởng quan trọng đối với hệ thống xử lý văn bản nói chung và ứng dụng phân loại tin tự động nói riêng. Đây cũng là một vấn đề cần được nghiên cứu sâu hơn và đưa ra các giải thuật tốt hơn

Các file đính kèm theo tài liệu này:

  • pdfbai_giang_xu_ly_ngon_ngu_tu_nhien_chuong_7_phan_loai_tin_tu.pdf
Tài liệu liên quan