Đề tài Tìm hiểu các hướng tiếp cận bài toán phân loại văn bản và xây dựng phần mềm phân loại tin tức báo điện tử

Trong phần thửnghiệm phân loại văn bản, hiện tại chúng em quy định một chủ đềchỉcó một từkhóa chính là tên của chủ đề đó. Chính đây là một điểm hạn chế dẫn đến kết quảphân loại văn bản chưa cao nhưtrong các công trình phân loại văn bản tiếng Anh. Do vậy, nhu cầu xây dựng một công cụchiết xuất từkhóa tự động từ tập dữliệu tin tức thô là rất cần thiết. Khi đã có tập từkhóa, độchính xác của việc phân loại văn bản sẽtăng lên đáng kể. Hiện tại, luận văn thực hiện phân loại theo hướng tiếp cận Naïve Bayes với các từ được tách trong câu mà không có sựchọn lựa những từ đặc trưng đểthực hiện phân loại. Điều này dẫn đến một sốtừkhông có ý nghĩa phân loại vẫn xem nhưcó vai trò tương tựnhưnhững từcó ý nghĩa phân loại cao. Nếu chúng ta nghiên cứu thực hiện chọn lựa các đặc trưng của văn bản (feature selection) rồi mới phân loại, chứng ta sẽ đạt được tỉlệchính xác cao hơn và tăng tốc độxửlý của hệthống sẽ tăng lên đáng kể

pdf132 trang | Chia sẻ: haianh_nguyen | Lượt xem: 1291 | Lượt tải: 0download
Bạn đang xem trước 20 trang tài liệu Đề tài Tìm hiểu các hướng tiếp cận bài toán phân loại văn bản và xây dựng phần mềm phân loại tin tức báo điện tử, để xem tài liệu hoàn chỉnh bạn click vào nút DOWNLOAD ở trên
ân loại vào chủ đề ci cĩ giá trị 1 2( | , ,..., )i nP Y c w w w′ = cao nhất. 74 5.4. Kết luận Các phương pháp phân loại văn bản dựa trên cơng thức của IGATEC và phương pháp Nạve đều tương đối đơn giản, khơng bị hạn chế về tập huấn luyện như khi sử dụng các phương pháp khác. Ngồi ra, các phương pháp trên cũng khơng gặp trường hợp sai lạc do cĩ sự thay đổi trong tập huấn luyện bởi tính linh hoạt đối với sự thay đổi nhờ dùng thơng tin thống kê từ Google. Các kết quả trên thu nhận được thơng qua việc chạy hệ thống thử nghiệm phân loại ViKass sẽ được mơ tả chi tiết trong chương tiếp theo. 75 Chương 6 HỆ THỐNG THỬ NGHIỆM PHÂN LOẠI VĂN BẢN Giới thiệu hệ thống thử nghiệm Vikass Thử nghiệm các cách trích xuất thơng tin Dữ liệu thử nghiệm Thử nghiệm các cơng thức tính độ tương hỗ MI Thử nghiệm phân loại tin tức điện tử 76 Chương 6. HỆ THỐNG THỬ NGHIỆM PHÂN LOẠI VĂN BẢN 6.1. Giới thiệu hệ thống thử nghiệm Vikass 6.1.1. Chức năng hệ thống Vikass Hệ thống thử nghiệm phân loại văn bản Vikass được xây dựng nhằm mục đích kiểm nghiệm phương pháp tách từ IGATEC và các phương pháp phân loại đề cập ở chương trước nhằm tìm ra được các tham số tối ưu trước khi tích hợp vào tồ soạn báo điện tử. Các tham số này bao gồm các tham số chạy thuật tốn di truyền như số lượng cá thể ban đầu, số thế hệ tối ưu, tỉ lệ lai ghép, tỉ lệ đột biến; cách tính MI hiệu quả và phương pháp phân loại nào cho kết quả tốt hơn. Ngồi tích hợp mơ-đun trích tần số xuất hiện từ Google, hệ thống cịn cung cấp các tính năng khác như trích tin tức, chỉnh sửa từ khĩa. Chức năng của hệ thống sẽ được mơ tả chi tiết trong các phần tiếp theo. 6.1.2. Tổ chức và xử lý dữ liệu 6.1.2.1. Giới thiệu chung Hướng tiếp cận của luận văn dựa trên thống kê từ Google, điều đĩ cĩ nghĩa là mỗi lần cần lấy tần số xuất hiện của một từ mới, hệ thống phải thực hiện lấy thơng tin từ Internet. Điều này làm tiêu tốn rất nhiều thời gian chờ đợi, do vậy mỗi khi lấy được thơng tin từ Google, chúng em lưu lại vào một file dữ liệu đệm để cĩ thể sử dụng lại mỗi khi cần đến. Với mục đích làm tăng tốc độ xử lý của chương trình thử nghiệm, việc quản lý dữ liệu hồn tồn được thực hiện trên file văn bản thơng thường trên kiểu phơng phổ biến của tiếng Việt là phơng Unicode UTF8. Hệ thống thử nghiệm cần hai loại thơng tin như sau: ? Đối với thử nghiệm tách từ tiếng Việt, hệ thống cần thơng tin về xác suất xuất hiện của các từ trên Google. ? Đối với việc thử nghiệm phân loại văn bản, hệ thống cần thơng tin về xác suất xuất hiện đồng thời của từ và từ khố tương ứng với chủ đề. 77 6.1.2.2. Tổ chức dữ liệu Từ những yêu cầu trên, hệ thống dữ liệu được thiết kế thành ba file cĩ nội dung như sau: Hình 6. 1. Tổ chức file dữ liệu ? File CACHE: là dạng file văn bản thơng thường, chứa thơng tin: ? Từ: từ đã tìm từ Google ? Xác suất: xác suất của từ đĩ trên Google ? Loại từ: mang một trong các giá trị W(là từ), NW (khơng là từ), WC ( cĩ thể là từ), NWC (khơng thể là từ), UD (chưa phân loại). ? File KEYWORD: File được viết dưới dạng xml bao gồm thơng tin về tên chủ đề các cấp: ? Tên chủ đề: tên của chủ đề các cấp (cấp 1 và cấp 2) ? Chỉ số: chỉ số của mỗi chủ đề cho biết vị trí của chủ đề trong danh sách xác suất của từ với từng chủ đề trong file Relevant. ? Chọn dạng xml để lưu tên chủ đề vì tính chất lồng nhau ở từng cấp của chủ đề rất thích hợp với cấu trúc dạng cây của tài liệu xml. ? Ví dụ, ta cĩ các chủ đề cấp 1 là “thể thao” và các chủ đề cấp 2 của nĩ là “Bĩng đá”, “Quần vợt” như hình vẽ dưới đây” Hình 6. 2. Chủ đề Thể thao Lúc đĩ, nội dung file chủ đề sẽ cĩ nội dung như sau: 78 ? File RELEVANT: chứa thơng tin: ? Từ: từ đã tìm ? Danh sách xác suất của từ với từng chủ đề: xác suất xuất hiện đồng thời của từ ứng với từng chủ đề theo chỉ số được lưu trong file KEYWORD. Sau khi thực hiện thử nghiệm, dung lượng file CACHE đã lên đến gần 10M và file RELEVANT xấp xỉ 50M. Với khối lượng dữ liệu lớn như vậy, việc sử dụng một hệ quản trị cơ sở dữ liệu là khơng cần thiết bởi vì việc xử lý thơng tin trong hệ thống là đơn giản và yêu cầu tiên quyết của chương trình là tốc độ xử lý cao. Như vậy, chọn lựa lưu trữ thơng tin dưới dạng văn bản bình thường là phù hợp với yêu cầu hệ thống. 6.1.2.3. Xử lý dữ liệu Khi bắt đầu hoạt động, hệ thống tự động thực hiện đọc các file dữ liệu, phân tích chuỗi trong file để lấy thơng tin và đưa vào bộ nhớ dưới dạng “bảng băm” (hashtable). Hệ thống thử nghiệm được phát triển nên ngơn ngữ C#, là một ngơn ngữ khá mạnh hỗ trợ nhiều cấu trúc lưu trữ thơng tin trong đĩ cĩ hỗ trợ bảng băm. Nhờ vậy mà việc tổ chức dữ liệu trở nên đơn giản hơn rất nhiều. Ngồi ra, cách xử lý như vậy sẽ làm tăng tốc độ tìm kiếm thơng tin của từ nhờ các ưu điểm tổ chức dữ liệu của bảng băm. 79 6.1.3. Một số màn hình của hệ thống Vikass Hình 6. 3. Màn hình tách từ và phân loại STT Mơ tả 1 Chọn thư mục chứa các tập tin cần tách từ và phân loại 2 Chọn thư mục lưu kết quả 3 Liệt kê tên các tập tin được chọn tách từ và phân loại 4 Di chuyển các tập tin qua lại để chọn các tập tin thực hiện tách từ 5 Liệt kê tên tất cả các tập tin cĩ trong thư mục (1) 6 Thực hiện tách từ và phân loại 7 Dừng tách thực thi 8 Xem tập tin kết quả phân loại 9 Tab tùy chọn các thơng số chạy GA 10 Tab tùy chọn các thơng số như loại MI sử dụng, cĩ sử dụng stopword hay khơng ? 11 Tab chọn các từ khĩa sẽ sử dụng cho việc phân loại Bảng 6. 1. Mơ tả một số control của màn hình tách từ 80 Màn hình mơđun trích xuất từ Google: Hình 6. 4. Màn hình trích xuất từ Google STT Mơ tả 1 Chọn thư mục chứa các tập tin như tập tin đệm, tập tin chứa độ liên quan của từ và từ khĩa,… 2 Các tùy chọn như chỉ tìm kiếm các từ cĩ tần số 0, chỉ tìm các trang .vn, tìm kiếm độ liên quan của từ và từ khĩa… 3 Các phương pháp tải về sử dụng 4 Thanh biểu thị tiến trình tìm kiếm và trích từ 5 Thực hiện tìm kiếm và trích xuất 6 Lưu lại tập tin đệm và tập tin chứa độ liên quan 7 Dừng việc tìm kiếm 8 Danh sách các từ đã được tìm kiếm Bảng 6.2. Mơ tả một số control của màn hình trích từ Google 81 Màn hình phân loại tin tức điện tử hỗ trợ tồ soạn báo điện tử : Hình 6. 5. Màn hình phân loại tin tức điện tử STT Mơ tả 1 Thiết lập các tham số kết nối đến SQL server 2 Lấy các tin tức được tồ soạn báo điện tử tải về 3 Thực hiện phân loại 4 Cập nhật các tin tức đã được phân loại vào SQL server 5 Thực hiện tất cả các bước (2),(3),(4) 6 Hiển thị các thơng tin như : nội dung tin, tên của chủ đề được phân loại,… Bảng 6.3. Bảng mơ tả một số control của màn hình phân loại tin tức điện tử 82 6.2. Thử nghiệm các cách trích xuất thơng tin Việc trích xuất thơng tin về tần số xuất hiện của từ, độ liên quan giữa từ và chủ đề được thực hiện thơng qua module Google Extractor. Nhằm mục đích tăng tốc trích thơng tin từ Google, chúng em đã thử nghiệm trích thơng tin bằng nhiều cách khác nhau và thực hiện kết nối đến Google sử dụng nhiều luồng (>=15). Bên cạnh đĩ, để tránh việc phải thực hiện tìm kiếm nhiều lần, các tập tin đệm được sử dụng với mục đích lưu lại hay cập nhất kết quả các lần tìm kiếm trước. 6.2.1. Các phương pháp thử nghiệm Chúng em sử dụng 3 cách khác nhau để lấy kết quả tìm kiếm bao gồm sử dụng dịch vụ web do Google cung cấp, tải trang kết quả về máy cục bộ sau đĩ sử dụng XPath hay tìm kiếm chuỗi. 6.2.1.1. Google web service Dịch vụ web là một ứng dụng cung cấp giao diện lập trình, hỗ trợ sự truyền thơng từ ứng dụng này đến ứng dụng khác qua mạng dùng XML. Dịch vụ web của Google tại địa chỉ là một phương pháp tiện lợi để khai thác cơng cụ tìm kiếm này. Tuy nhiên, ta phải đăng kí tài khoản trước khi sử dụng. Với mỗi tài khoản Google giới hạn số lượng truy vấn là 1000 truy vấn/ngày. Các tham số cần biết khi sử dụng dịch vụ : Tham số tìm kiếm q Câu truy vấn n Số kết quả trả về trên từng trang lr Giới hạn phạm vi ngơn ngữ tìm kiếm ie Bảng mã câu truy vấn sử dụng oe Bảng mã của kết quả trả về Bảng 6. 4. Tham số sử dụng dịch vụ Google Một số câu truy vấn đặc biệt trên Google : 83 Truy vấn đặc biệt Câu truy vấn Ý nghĩa Loại bỏ một từ bass –music “-” để loại bỏ 1 từ ra khỏi kết quả tìm kiếm Từ khĩa OR vacation london OR paris OR Giới hạn site Admission site:www.stanford.edu site: chỉ tìm kiếm trong site được chỉ định Giới hạn ngày Star Wars daterange:2452122- 2452234 daterange: chỉ trả về các file cĩ nhãn thời gian thõa điều kiện Lọc file Google filetype:doc OR filetype:pdf filetype: chỉ tìm kiếm các file cĩ kiểu mở rộng được liệt kê Loại trừ file Google doc -filetype: -filetype:pdf -filetype: ngược lại với filetype: Tìm theo tiêu đề intitle:Google search intitle: chỉ tìm kiếm tiêu đề web Bảng 6. 5. Một số câu truy vấn đặc biệt của Google Trong quá trình thử nghiệm sử dụng dịch vụ web của Google, chúng em nhận thấy thời gian đáp ứng khơng được nhanh (khoảng >5s cho một truy vấn-sử dụng mạng Internet của trường) hơn nữa cịn tồn tại nhiều lỗi. Lý do cĩ thể kể đến như phiên bản dịch vụ đang trong quá trình thử nghiệm (bản β), hạn chế do dung lượng mạng, chi phí chứng thực. Giới hạn 1000truy vấn/ngày cũng ảnh hưởng đến chương trình khi phải thực hiện trích xuất trên lượng lớn các từ. Để khắc phục vấn đề này, chúng em sử dụng biện pháp tải trang kết quả về. 6.2.1.2. Xpath và tìm kiếm chuỗi Trang kết quả trả về sẽ được chuyển sang định dạng xHTML dùng cho việc trích xuất dùng Xpath ( hay thực hiện tìm kiếm trên chuỗi. Cả hai phương pháp này đều cho hiệu suất tốt (khoảng 1-3s/truy vấn). Xpath là định dạng được W3C đề nghị được sử dụng rộng rãi trong việc truy vấn tập tin XML. Sử dụng Xpath cĩ thuận lợi hơn tìm kiếm chuỗi ở chỗ cĩ thể sử dụng trích xuất trên nhiều ngơn ngữ trả về từ Google và nếu cấu trúc của trang web thay 84 đổi thì ta vẫn lấy được thơng tin trả về của Google. Trong khi đĩ việc tìm kiếm chuỗi sẽ phụ thuộc vào các câu đặc biệt (như “các kết quả ”... ). Do đĩ, nếu các trang trả về của Google trình bày khác đi, cách tìm kiếm chuỗi sẽ khơng cho kết quả mong muốn. Tuy nhiên, sử dụng cách tìm kiếm chuỗi sẽ cho kết quả nhanh hơn dùng Xpath vì hệ thống khơng phải tốn một thời gian phân tích dữ liệu thành dạng tài liệu XML. 6.2.2. Nhận xét Hiện tại, điều chúng ta quan tâm hàng đầu là tốc độ trích thơng tin từ Google. Mặt khác, trang web Google cĩ cấu trúc khả ổn định, hầu như khơng thay đổi. Vì vậy khi thực hiện thử nghiệm, chúng em sử dụng cách thức tìm kiếm chuỗi để đạt tối độ cao nhất. Tuy nhiên, chúng em vẫn xây dựng các lựa chọn rút trích để tạo tính linh hoạt trong thử nghiệm. 6.3. Dữ liệu thử nghiệm 6.3.1. Nguồn dữ liệu Dữ liệu thử nghiệm được lấy từ trang tin tức VnExpress.net (www.vnexpress.net) tại thời điểm tháng 6/2005. Đây là một trong những trang tin tức điện tử đầu tiên tại Việt Nam ra đời vào ngày 26/2/2001, đến nay đã hơn bốn năm hoạt động với lượng độc giả đơng đảo trong cả nước và quốc tế. Ngồi các trang mục do phĩng viên của tờ báo viết, VnExpress.net cịn mở rộng đĩn nhận các bài viết do độc giả gửi về từ khắp nơi để làm phong phú thêm cho nội dung của tờ báo và cập nhật tin tức thường xuyên nhanh chĩng. 6.3.2. Số lượng dữ liệu thử nghiệm Từ các mục của VnExpress.net, đầu tiên chúng em chọn lọc ra một số mục chính để lấy dữ liệu thử nghiệm. Vì chúng em quy định từ khĩa cho chủ đề chính là tên chủ đề đĩ nên trong quá trình thử nghiệm, chúng em phát hiện ra một số trường hợp nhập nhằng. 85 Đầu tiên, từ khĩa Thế giới, Xã hội cĩ ý nghĩa bao quát cĩ thể về Kinh tế thế giới, chính trị thế giới, văn hĩa xã hội…, nên khả năng các tin tức được phân loại vào chủ đề này là rất cao do tần số xuất hiện của chủ đề này với các từ phổ biến lớn. Thứ hai, một số mục cĩ tên khơng đồng nhất giữa các tờ báo điện tử như trang VnExpress.net dùng Vi tính trong khi đĩ TuoiTre.com.vn lại dùng Nhịp sống số, Vnn.vn dùng Cơng nghệ thơng tin và Viễn thơng.... Việc này làm giảm kết quả khi sử dụng từ khĩa khĩa Vi tính cho chủ đề này vì từ khĩa này khơng bao quát được cho các trang sử dụng tên chủ đề khác mặc dù cùng trình bày một nội dung. Do vậy, chúng em chỉ sử dụng một số mục cĩ từ khĩa rõ ràng. Đối với mỗi tin tức, chúng em chỉ tách lấy phần tiêu đề, phần tĩm lược và phần chú thích ảnh. Đây là các phần cĩ ý nghĩa phân loại cao do được người viết bài tĩm lược và chọn lọc. Ứng mỗi chủ đề, chúng em lấy ngẫu nhiên 100 tin. Cịn cách giải quyết phần nhập nhằng trình bày ở trên sẽ là hướng mở rộng của luận văn. Tổng dữ liệu thử nghiệm là 1500 tập tin bao gồm 15 chủ đề cấp 2, mỗi chủ đề 100 tập tin. 86 Hình 6. 6. Cây chủ đề 6.3.3. Nhận xét Mặc dù dữ liệu dùng thử nghiệm khá nhỏ do hạn chế về mặt thời gian, nhưng cách thức chọn dữ liệu và chủ đề thử nghiệm phân loại của chúng em đã mở rộng rất nhiều so với 35 văn bản thử nghiệm của [H. Nguyen et al, 2005] trên 5 chủ đề Chính trị, Giáo dục, Kinh doanh, Sức khỏe, Thể thao. 87 6.4. Thử nghiệm các cơng thức tính độ tương hỗ MI 6.4.1. Các phương pháp thử nghiệm Nhằm xác định hiệu quả của các cách tính MI trong việc tách từ tiếng Việt, chúng em thực hiện thử nghiệm 3 cơng thức MI đã được trình bày ở mục 4.5: một cơng thức tính MI của [H.Nguyen et al, 2005] (gọi là MI1) , một của [Ong & Chen, 1999] (gọi là MI2), một do chúng em đề nghị (gọi là MI3) . Ứng với mỗi cơng thức tính MI trên, chúng em thử nghiệm thêm việc tách stopword và khơng tách stopword trước khi tách từ. Mục đích của việc tách stopword trước khi tách từ nhằm tạo ra nhiều ngữ nhỏ hơn khi đã bỏ các từ khơng cĩ ý nghĩa, để làm tăng tốc độ tách từ của hệ thống. Như vậy, tổng cộng cĩ 6 thử nghiệm tách từ như sau: ? MI1 tách stop word (MI1_NonSW) ? MI1 khơng tách stop word (MI1_SW) ? MI2 tách stop word (MI2_NonSW) ? MI2 khơng tách stop word (MI2_NonSW) ? MI3 tách stop word (MI3_NonSW) ? MI3 khơng tách stop word (MI3_NonSW) Chúng em thử nghiệm các cơng thức trên 1500 nội dung tĩm tắt các tin tức của VnExpress.net 6.4.2. Kết quả Độ chính xác của các cơng thức tính độ tương hỗ như sau: Cách tính MI Khơng tách stop word Cĩ tách stopword MI 1 [H. Nguyen et al, 2005] 74% 72% MI 2 [Ong & Chen, 1999] 60% 55% MI 3 (chúng em đề nghị) 72% 69% Bảng 6. 6. Kết quả thực nghiệm các cơng thức tính độ tương hỗ MI 88 0% 10% 20% 30% 40% 50% 60% 70% 80% MI1 MI2 MI3 Loại MI Đ ộ ch ín h xá c Non SW SW Hình 6. 7. Biểu đồ so sánh kết quả các cơng thức tính độ tương hỗ MI 6.4.3. Nhận xét Trong 6 cách thử nghiệm, cách tách từ dùng cơng thức MI1. cĩ độ chính xác cao nhất. Thời gian chạy tách từ lúc đầu khá lâu (trung bình khoảng 10 phút cho một mẫu tĩm tắt dài khoảng 100 tiếng) đa phần là do thời gian lấy thơng tin từ Google. Nhưng khi thơng tin về tần số xuất hiện của các từ đã được lưu lại tương đối lớn (độ lớn file cache khoảng 10M), thì tốc độ tách từ giảm xuống đáng kể (trung bình <1giây đối với các văn bản khơng cần lấy thơng tin từ Internet) Cách tiếp cận của cơng thức MI1 là ưu tiên dựa trên từ ghép cĩ hai tiếng, mà theo thống kê dựa trên từ điển của chúng em, số từ 2 tiếng chiếm đa số trong từ vựng tiếng Việt. Cách tính này cho kết quả khá tốt vì vừa thoả mãn được tính chất tự nhiên dựa trên ưu thế áp đảo của từ 2 tiếng, vừa được chứng minh bằng thực nghiệm. Trong các trường hợp thử nghiệm cĩ tách stopword, thời gian tách từ giảm đi rất nhiều (trung bình 5 phút cho văn bản mới). Tuy nhiên, trong quá trình thử nghiệm, chúng em nhận thấy việc tách stopword cĩ thể làm sai lạc ý nghĩa của văn bản ban 89 đầu do danh sách stopword đưa vào khơng hồn chỉnh. Vì vậy kết quả tách từ cĩ tách stopword khơng cao như cách tách thuần tuý. 6.5. Thử nghiệm phân loại tin tức điện tử 6.5.1. Thước đo kết quả phân loại văn bản Để đánh giá hiệu quả phân loại văn bản, thơng thường người ta dùng các chỉ số về độ thu về-recall và độ chính xác-precision [Yang, 2000]. Cho một phương pháp phân loại văn bản, đầu vào là một văn bản, và kết quả trả về là một danh sách các chủ đề được gán cho văn bản đĩ, chỉ số độ thu về, độ chính xác cĩ thể được tính như sau: Hình 6. 8. Các thơng số dùng tính độ thu về, độ chính xác Hình trên mơ tả các thơng số sau: ? (A) là tất cả văn bản thực hiện phân loại văn bản cho chủ đề T ? (B) là số văn bản được phân loại lấy về cho chủ đề T ? (C) là số văn bản thực sự thuộc về chủ đề T ? (D) là số văn bản lấy về chính xác. Các tham số trên được dùng trong cơng thức tính độ thu về-recall, độ chính xác- precision dưới đây: 90 Việc gán nhãn chủ đề của các phương pháp phân loại văn bản cĩ thể được đánh giá bằng cách dùng bảng trường hợp hai chiều ứng với từng loại chủ đề: Chủ đề đang xét ĐÚNG với chủ đề văn bản Chủ đề đang xét SAI với chủ đề văn bản Phân loại ĐÚNG với chủ đề văn bản a b Phân loại SAI với chủ đề văn bản c d Bảng 6. 7. Bốn trường hợp của phân loại văn bản Như vậy, với mỗi kết quả phân loại cho một văn bản, ta sẽ cĩ được một trong 4 trường hợp a,b,c hoặc d. Từ đĩ, ta tính được các chỉ số sau: ? arecall a c = + nếu a + c >0, ngược lại là khơng xác định. ? aprecision a b = + nếu a + b >0, ngược lại là khơng xác định. ? Tuy nhiên, cách tính với độ thu về, độ chính xác riêng rẽ sẽ cho kết quả khơng cân đối. Ví dụ nếu số văn bản lấy về đúng (D) gần bằng với số văn bản đúng thực sự (C) thì chỉ số độ thu về sẽ cao, tuy nhiên nếu số văn bản lấy về (B) khá nhiều so với (D) sẽ cho chỉ số độ chính xác nhỏ. Do vậy, thơng thường người ta thêm một chỉ số F1 [Yang , 1997] để phản ánh sự cân đối giữa 2 độ đo trên: 21 1 1F recall precision = + Ngồi ra, để tính tốn hiệu quả thực thi trên tồn bộ chủ đề, thơng thường người ta cịn sử dụng hai phương pháp macro-averaging và micro-averaging. Macro-averaging tính trung bình các chỉ số recall, precision, fallout, Acc,Err của tất cả các chủ đề. 91 Micro-averaging tính tốn các chỉ số dựa trên tổng giá trị a, b, c, d của từng chủ đề dựa theo các cơng thức áp dụng tính cho một chủ đề. Sự khác nhau chủ yếu giữa hai cách tính macro-averaging và micro-averaging là : micro-averaging tính tốn dựa trên trọng số của mỗi văn bản, nên cho kết quả trung bình trên mỗi văn bản (per-document average); trong khi đĩ, macro- averaging tính tốn trọng số trên mỗi chủ đề, do đĩ, kết quả cho sẽ đại diện cho giá trị trung bình trên mỗi chủ đề (per-category average). 6.5.2. Các phương pháp thử nghiệm Ở phần phân loại văn bản, chúng em thử nghiệm 2 cơng thức đã được trình bày ở 5.3. là cơng thức phân loại được sử dụng trong [H. Nguyen et al, 2005] (gọi tắt là cơng thức IClass) và cơng thức tính Nạve Bayes được cải tiến cho phù hợp với hướng tiếp cận dựa trên Google (gọi tắt là NBClass). Ứng với cơng thức phân loại, chúng em thử nghiệm với 2 cơng thức tính MI: một của [H. Nguyen et al, 2005] (gọi tắt là MI1) và một cơng thức MI do chúng em đề xuất (gọi tắt là MI3) cho hai trường hợp tách và khơng tách stopword.Ở phần này chúng em khơng thử nghiệm với MI2 của [Ong & Chen, 1999] vì kết quả tách từ của cơng thức này thấp hơn các cơng thức khác khá nhiều sẽ cho kết quả khơng tốt. Như vậy tổng cộng chúng em thực hiện 8 lần thử nghiệm phân loại như sau: ? Cơng thức IClass + MI1 + tách stop word ? Cơng thức IClass + MI1 + khơng tách stop word ? Cơng thức IClass + MI3 + tách stop word ? Cơng thức IClass + MI3 + khơng tách stop word ? Cơng thức NBClass + MI1 + tách stop word ? Cơng thức NBClass + MI1 + khơng tách stop word ? Cơng thức NBClass + MI3 + tách stop word ? Cơng thức NBClass + MI3 + khơng tách stop word 6.5.3. Kết quả 92 Sau khi thực hiện phân loại văn bản, chúng em sử dụng các độ đo đã được trình bày ở mục 6.5.1. để tính tốn kết quả chính xác của các thử nghiệm phân loại. Kết quả tính tốn được trình bày trong bảng thống kê sau: Phương pháp Tên chủ đề R P F1 Xã hội 0.62625 0.654047 0.639847 Khoa học 0.72 0.975434 0.828475 Thể thao 0.765 0.968245 0.854706 Kinh doanh 0.795 0.293358 0.428571 Macro 0.763437 0.892427 0.822908 IClass + MI 1 +tách stopword Micro 0.663 0.682801 0.672755 Xã hội 0.764 0.636667 0.694545 Khoa học 0.7216 0.942131 0.81725 Thể thao 0.65625 0.975 0.784483 Kinh doanh 0.816 0.348718 0.488623 Macro 0.814333 0.951923 0.877769 IClass + MI 1 +khơng tách stopword Micro 0.656 0.672131 0.663968 Xã hội 0.630 0.660 0.645 Khoa học 0.857 0.873 0.865 Thể thao 0.861 0.915 0.887 Kinh doanh 0.630 0.740 0.681 Macro 0.913 0.892 0.903 IClass + MI 3 +tách stopword Micro 0.678 0.700 0.689 Xã hội 0.772 0.784 0.778IClass + MI 3 Khoa học 0.808 0.851 0.829 93 Thể thao 0.882 0.825 0.853 Kinh doanh 0.637 0.523 0.575 Macro 0.858 0.830 0.844 +khơng tách stopword Micro 0.553 0.566 0.559 Xã hội 0.680 0.738 0.708 Khoa học 0.810 0.841 0.825 Thể thao 0.924 0.918 0.921 Kinh doanh 0.725 0.620 0.668 Macro 0.785 0.779 0.782 NBClass + MI 1 +tách stopword Micro 0.648 0.633 0.640 Xã hội 0.591 0.697 0.640 Khoa học 0.704 0.897 0.789 Thể thao 0.886 0.918 0.902 Kinh doanh 0.675 0.581 0.625 Macro 0.714 0.773 0.742 NBClass + MI 1 +khơng tách stopword Micro 0.783 0.633 0.700 Xã hội 0.544 0.636 0.586 Khoa học 0.680 0.855 0.757 Thể thao 0.708 1.142 0.874 Kinh doanh 1.404 0.332 0.537 Macro 0.748 0.721 0.734 NBClass + MI 3 +tách stopword Micro 0.725 0.648 0.684 Xã hội 0.611 0.590 0.600 Khoa học 0.485 0.616 0.543 NBClass + MI 3 Thể thao 0.749 1.095 0.890 94 Kinh doanh 0.660 0.739 0.697 Macro 0.626 0.760 0.687 +khơng tách stopword Micro 0.647 0.647 0.647 Bảng 6. 8. Kết quả phân loại văn bản cho từng chủ đề ở cấp 1 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 I M I1 SW I M I1 No nS W I M I3 SW I M I3 No nS W Ba ye s M I1 SW Ba ye s M I1 No n S W Ba ye s M I3 SW Ba ye s M I3 No nS W Xã hội Khoa học Thể thao Kinh doanh Macro Micro Hình 6. 9. Biểu đồ F1 cho cấp 1 Vì kết quả của phần thử nghiệm phân loại ở cấp hai rất dài, nên chúng em chỉ xin trình bày biểu đồ kết quả phân loại mà khơng trình bày chi tiết bảng kết quả cho từng chủ đề. Sau đây là kết quả phân loại cho các chủ đề cấp 2. 95 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 I M I1 SW I M I1 No nS W I M I3 SW I M I3 No nS W Ba ye s M I1 SW Ba ye s M I1 No n S W Ba ye s M I3 SW Ba ye s M I3 No nS W Giáo dục Du học Lối sống Du Lịch Khoa học Bĩng đá 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 I M I1 SW I M I1 No nS W I M I3 SW I M I3 No nS W Ba ye s M I1 SW Ba ye s M I1 No n S W Ba ye s M I3 SW Ba ye s M I3 No nS W Quần vợt Bất động sản Chứng khốn Quốc tế Âm nhạc Thời trang 96 0 0.1 0.2 0.3 0.4 0.5 0.6 I M I1 SW I M I1 No nS W I M I3 SW I M I3 No nS W Ba ye s M I1 SW Ba ye s M I1 No n S W Ba ye s M I3 SW Ba ye s M I3 No nS W Điện ảnh Làm đẹp Giới tính macro micro Hình 6. 10. Biểu đồ F1 cho cấp 2 6.5.4. Nhận xét Trong hai mức phân loại chủ đề, ta nhận thấy kết quả phân loại ở mức 1 cho độ chính xác cao hơn mức 2. Lý do là vì số lượng chủ đề của cấp 2 nhiều hơn cấp 1 rất nhiều (15 so với 4 ở cấp 1) và một số chủ đề của cấp 2 chưa thực sự tốt như Bất động sản, Lối sống, Làm đẹp, Giới tính. Từ đĩ, ta thấy được việc xây dựng danh sách từ khố cho mỗi chủ đề một yêu cầu cần thiết để nâng hiệu suất phân loại văn bản. Dựa vào kết quả thử nghiệm ta nhận thấy rằng trong việc phân loại sử dụng Bayes tốt hơn cơng thức phân loại của H. Nguyen et al (2005) trong nhiều trường hợp. Trong các thử nghiệm cơng thức của H.Nguyen et al (2005), độ hỗ trợ của kết quả vào chủ đề đối cĩ giá trị rất gần nhau, khi áp dụng cho các chủ đề hầu như khơng cĩ sự khác biệt. Trong khi đĩ, với cơng thức Nạve Bayes, cĩ một số chủ đề 97 nổi trội hơn hẳn các chủ đề khác và kết quả thống kê cũng cho thấy Nạve Bayes cho kết quả chính xác hơn. Kết quả của thử nghiệm cơng thức trong [H.Nguyen et al, 2005] với độ chính xác chưa cao lắm bởi vì đấy là cơng thức do chính tác giả đề nghị chưa dựa trên cơ sở lý thuyết vững chắc. Trong khi đĩ, phương pháp Nạve Bayes đã xuất hiện khá lâu, được chứng minh trên lý thuyết và thực nghiệm nên độ tin cậy rất cao. Việc sử dụng hướng tiếp cận Nạve Bayes cho phân loại văn bản dựa trên Google cĩ thể nĩi là bước cải tiến đáng khíck lệ so với cách phân loại cũ. Dựa vào biểu đồ, ta nhận thấy sự kết hợp giữa phương pháp phân loại Nạve Bayes và cơng thức tính độ tương hỗ (MI) của [H. Nguyen et al, 2005] cho kết quả phân loại tốt nhất. Trong đĩ, tỉ lệ trung bình của phương pháp cho các chủ đề ở cấp 1 là 75%, và cho các chủ đề ở cấp 2 là 67%. Kết quả này hợp lý vì thực nghiệm cho thấy cơng thức MI1 của H.Nguyen et al (2005) cho kết quả tách từ chính xác cao nhất nên đã gĩp phần làm cho kết quả phân loại tốt hơn. Kết quả phân loại văn bản trung bình giữa 8 cặp là 75%, là kết quả chấp nhận được đối với phân loại văn bản tiếng Việt. Kết quả khơng cao so với kết quả phân loại bằng tiếng Anh bởi vì như chúng ta đã biết phần tách từ tiếng Việt gặp rất nhiều phức tạp. 98 Chương 7 ỨNG DỤNG PHÂN LOẠI TIN TỨC ĐIỆN TỬ TỰ ĐỘNG Giới thiệu tịa soạn báo điện tử Tính cần thiết của phân loại tin tức tự động Phân tích hiện trạng Mơ hình DFD quan niệm cấp 2 hiện hành cho ơ xử lý Nhận bài và Trả bài Phê phán hiện trạng Mơ hình DFD quan niệm cấp 2 mới cho ơ xử lý Nhận bài và Trả bài Triển khai DLL Chương trình cài đặt “Tịa soạn báo điện tử” đã tích hợp module phân loại tin tức Kết quả 99 Chương 7. ỨNG DỤNG PHÂN LOẠI TIN TỨC ĐIỆN TỬ TỰ ĐỘNG Nhằm đánh giá hiệu quả thực tế của việc phân loại sử dụng IGATEC và Nạve Bayes, chúng em đã xây dựng cơng cụ phân loại thành một module đồng thời tích họp vào trong tịa soạn báo điện tử. Trong chương này, chúng em sẽ giới thiệu sơ lược về tịa soạn báo điện tử và mơ tả cách thức tích hợp module phân loại. 7.1. Giới thiệu tịa soạn báo điện tử Phần mềm tịa soạn báo điện tử (Luận văn khĩa 2000-Hồng Minh Ngọc và Nguyễn Duy Hiệp) xây dựng trên nền tảng DotNetNuke tuân thủ theo qui trình của một tịa soạn thực tế đi từ soạn bài, duyệt bài và đăng bài. Mỗi biên tập viên sẽ phụ trách một mảng chủ đề. Cộng tác viên hay người dùng sau khi viết bài phải được biên tập viên duyệt. Nếu nội dung và hình thức chấp nhận được thì bài được chuyển lên vị trí cĩ chức năng đưa bài lên website chính thức. Người quản trị sẽ phân cơng chuyên mục và chủ đề cho các biên tập viên. Nếu đã qua các cấp kiểm duyệt, bài viết được phép đưa lên website. Nếu tại một cấp nào đĩ, người quản lý thấy bài viết cần được chỉnh sửa thì bài viết sẽ được trả về đúng cấp cĩ thẩm quyền. Ngồi ra, tịa soạn báo điên tử cịn hỗ trợ việc thu thập tin tức điện tử từ nhiều nguồn khác nhau. Tin tức được tải về sau đĩ phải được các biên tập viên xác định chủ đề và chuyên mục mà bài báo thuộc về để tiến hành thủ tục đăng bài. Việc phân loại tin tức ở giai đoạn thực hiện luận văn này là hồn tồn thủ cơng. 7.2. Tính cần thiết của phân loại tin tức tự động Việc thực hiện phân loại thủ cơng trên số lương lớn các tin tức được tải về cĩ thể ngốn rất nhiều thời gian và cơng sức. Nhằm làm tăng tính hiệu quả cũng như hỗ trợ tối đa cho các biên tập viên tập trung vào các cơng việc khác quan trọng hơn. Module phân loại tin tức tự động đã được xây dựng. Nhiệm vụ của module này là thực hiện phân loại tự động các tin tức tải về nhằm đề xuất sắp xếp tin tức này vào một chuyên mục hợp lý. Module được viết dưới dạng một thư viện dll thực hiện các 100 cơng việc như sau: lấy các tin tức được tải về, tiến hành phân loại và cập nhật vào cơ sở dữ liệu. 7.3. Phân tích hiện trạng Mục đích của luận văn chúng em là tích hợp phần xử lý phân loại trang web tự động vào phần duyệt bài viết và sửa bài viết nên chúng em chỉ trình bày mơ hình DFD cho ơ xử lý “Nhận bài và Trả bài”. Để tìm hiểu về tồn cảnh mơ hình DFD của tồ soạn báo điện tử, xin tham khảo luận văn “Tồ soạn báo điện tử” của Hồng Minh Ngọc Hải (0012545), Nguyễn Duy Hiệp (0012038)) 7.3.1. Mơ hình DFD quan niệm cấp 2 hiện hành cho ơ xử lý Nhận bài và Trả bài 7.3.1.1. Mơ hình Hình 7. 1.Mơ hình DFD hiện hành 7.3.1.2. Mơ tả mơ hình Thành viên cĩ chức năng viết bài nhận bài viết mới được giao, sau khi hồn thành thì lưu xuống kho dữ liệu những bài viết chưa đăng để chờ duyệt. Sau khi bài viết được duyệt, thành viên kiểm tra xem bài viết cĩ cần chỉnh sửa khơng, nếu cĩ thì 101 thực hiện chỉnh sửa sau đĩ lưu phiên bản mới của bài viết chờ duyệt tiếp. Ngồi ra, các bài báo được lấy tự động từ Internet xuống cũng được lưu trong kho dữ liệu các bài viết chưa đăng để chờ duyệt. 7.3.1.2.1. Mơ tả kho dữ liệu Hệ thống thơng tin: Xây dựng tồ soạn báo điện tử Mơ hình quan niệm xử lý Hiện tại [] Tương lai[] Trang : Ứng dụng : Xây dựng tồ soạn báo điện tử Mơ tả kho dữ liệu : NHỮNG BÀI VIẾT CHƯA ĐƯỢC ĐĂNG Tờ : Ngày lập : 28/6/2004 Người lập : 1. Hồng Minh Ngọc Hải 2. Nguyễn Duy Hiệp Dịng dữ liệu vào : Bài viết đã chỉnh sửa Bài viết mới Dịng dữ liệu ra : Bài viết cần chỉnh sửa Diễn giải : Kho này lưu trữ những bài viết đang nằm trong dây chuyền Cấu trúc dữ liệu: MA_BAI_VIET MA_CHUYEN_MUC MA_TAC_GIA 102 NGAY_VIET TIEU_DE NOI_DUNG DUONG_DAN_ANH KICH_THUOC_ANH CHIEU_DAI CHIEU_RONG Khối lượng : - Hiện tại : Khơng xác định - Tương lai : Khơng xác định Thơng tin thường truy xuất : MA_BAI_VIET MA_CHUYEN_MUC TIEU_DE NOI_DUNG Bảng 7. 1. Bảng kho dữ liệu những bài viết chưa được đăng 7.3.1.2.2. Mơ tả ơ xử lý Ơ xử lý Tên Dịng dữ liệu vào Dịng dữ liệu ra Diễn giải (1.1) Nhận bài viết mới Bài viết Bài viết mới Phĩng viên sau khi viết một bài mới sẽ gửi vào hệ thống. Những bài viết này được lưu dưới dạng những bài viết chưa được xử lý. (1.2) Lưu bài viết mới Bài viết mới Bài viết mới Lưu bài viết dưới tình trạng “Chưa xử lý” 103 (1.3) Kiểm tra những bài viết cần xử lý Nhu cầu kiểm tra Thơng tin cá nhân Bài viết cần chỉnh sửa Kiểm tra các bài viết đã được duyệt xem cĩ cần chỉnh sửa khơng (1.4) Nhận bài viết đã chỉnh sửa Bài viết đã chỉnh sửa Bài viết đã chỉnh sửa Bài viết sau khi thành viên (cĩ chức năng chỉnh sửa) duyệt, chỉnh sửa và trả lại cho thành viên phụ trách bài viết đĩ. (1.5) Lưu phiên bản mới của bài viết Bài viết đã chỉnh sửa Bài viết đã chỉnh sửa Bài viết đã chỉnh sửa được lưu vào CSDL dưới tình trạng “Đã xử lý” tại cấp vừa chỉnh sửa và dưới tình trạng “Chưa xử lý” tại cấp được chuyển bài về (1.6) Lấy tin tự động Tin tức điện tử Tin tức điện tử Hệ thống tự động lấy tin tức từ các trang báo khác và lưu xuống kho dữ liệu Bảng 7. 2. Bảng mơ tả các ơ xử lý của mơ hình DFD hiện hành 7.3.2. Phê phán hiện trạng Hiện tại, hệ thống tự động lấy tin tức từ các trang báo điện tử khác về và gán vào các mục đã được chỉ định sẵn. Tuy nhiên, việc chỉ định chủ đề cho các tin tức lấy về một cách cứng nhắc chỉ đúng trong trường hợp trang web lấy tin cĩ cấu trúc chủ đề tương ứng với chủ đề trong tồ soạn báo điện tử của mình. Đối với những trang báo cĩ cấu trúc khác đi, việc gán nhãn mặc định cho các bài báo sẽ khơng cịn đúng nữa. Ví dụ ở tồ soạn báo điện tử của chúng ta cĩ mục Kinh doanh\Quốc tế, cịn ở báo www.vnexpress.net cĩ mục Thế giới bao gồm nhiều nội dung, trong đĩ cĩ một số tin tức về Kinh doanh quốc tế, một số tin tức về chính trị thế giới, một số bài về văn hố chẳng hạn. Như vậy nếu ta chỉ định các bài báo lấy từ mục tin Thế giới ở www.vnexpress.net đều được xếp vào mục Kinh doanh\Quốc tế thì kết quả khơng cịn đúng hồn tồn nữa. Lúc đĩ, các thành viên duyệt bài lại phải đọc lần lượt các 104 bài báo được lấy về một cách thủ cơng để phân loại chủ đề của tin tức cho phù hợp với cấu trúc chủ đề của mình. Để hạn chế trường hợp trên, chúng em đưa ra giải pháp là tích hợp module phân loại văn bản vào việc xử lý lấy tin tự động từ Internet. Các tin tức vừa được lấy về sẽ được module phân loại văn bản phân loại tự động vào các chủ đề cĩ sẵn của tồ soạn báo. Như vậy, chúng ta sẽ tiết kiệm được nhiều cơng sức và thời gian duyệt bài của các thành viên một cách đáng kể. 7.3.3. Mơ hình DFD quan niệm cấp 2 mới cho ơ xử lý Nhận bài và Trả bài 7.3.3.1. Mơ hình Hình 7. 2. Mơ hình DFD cải tiến 7.3.3.2. Mơ tả mơ hình Mơ hình mới chỉ thêm một ơ xử lý việc phân loại tin tức tự động sau khi hệ thống lấy tin tức từ trang web khác về. 105 7.3.3.2.1. Mơ tả ơ xử lý Ơ xử lý Tên Dịng dữ liệu vào Dịng dữ liệu ra Diễn giải (1.7) Phân loại tin tức tự động Tin tức điện tử Tin tức điện tử đã phân loại Module phân loại văn bản mới tích hợp vào hệ thống thực hiện phân loại tự động các tin tức vừa lấy về. Bảng 7. 3. Bảng mơ tả ơ xử lý phân loại tin tức tự động 7.4. Triển khai DLL Chương trình phân loại văn bản tự động được viết trên ngơn ngữ C#, trong khi “Tịa soạn báo điện tử” của luận văn khĩa 2000 được viết mã trên nền VB.Net. Do đĩ, để tích hợp hai hệ thống lại, chúng em đã xây dựng các thành phần chính dùng trong phân loại văn bản thành DLL. Cĩ thể nĩi, việc đĩng gĩi chương trình thành dạng DLL ngồi tính tiện lợi trong việc tích hợp giữa các hệ thống xây dựng trên các ngơn ngữ khác nhau, goíi DLL cịn cĩ ưu điểm là khả năng sử dụng đơn giản, dễ mang chuyển, là yếu tố quan trọng trong việc xây dựng chương trình. “Tịa soạn báo điện tử” của luận văn khĩa 2000 được xây dựng khá cơng phu về mặt hình thức lẫn nội dung, cho nên khi tích hợp DLL mới vào, chúng em nhận thấy khơng cần thiết phải thiết lập thêm giao diện nào nữa. Chúng em chỉ tạo thêm một số lựa chọn cho người dụng cĩ thể bật tắt chức năng phân loại. 106 Hình 7. 3. Màn hình lấy tin tức cho phép phân loại tự động 7.5. Chương trình cài đặt “Tịa soạn báo điện tử” đã tích hợp module phân loại tin tức “Tịa soạn báo điện tử” của luận văn khĩa 2000 hiện tại chưa xây dựng cơng cụ cài đặt vài gỡ chương trình tự động (Install và Uninstall), địi hỏi người dùng phải cĩ nhiều kiến thức về SQL Server để cĩ thể cài đặt cơ sở dữ liệu một cách thủ cơng. Vì vậy, nhằm tăng thêm tính tiện dụng của “Tịa soạn báo điện tử”, chúng em tự xây dựng cơng cụ cài đặt tự động “Tịa soạn báo điện tử” vào máy chỉ với thao tác click chuột. Cơng cụ cài đặt thực hiện việc thiết lập cơ sở dữ liệu vào hệ quản trị SQL Server, thư mục ảo chứa nội dung trang web trong IIS, và tạo shorcut trên desktop. Một số giao diện của cơng cụ cài đặt: 107 Hình 7. 4. Màn hình bắt đầu. Click Next để bắt đầu cài đặt Hình 7. 5.Màn hình chọn chế độ cài đặt hoặc tháo gỡ chương trình. Chọn Install và click Next để sang bước tiếp theo 108 Hình 7. 6.Màn hình chọn đường dẫn để cài đặt chương trình. Sau khi chọn xong các đường dẫn phù hợp, nhấp vào Next để thực hiện cài đặt. Hình 7. 7.Màn hình cài đặt chương trình 109 Hình 7. 8.Màn hình chọn chức năng gỡ chương trình. Chọn Remove để gỡ chương trình đã cài đặt trên máy. Hình 7. 9.Màn hình gỡ chương trình thành cơng 110 7.6. Kết quả Nhờ việc tích hợp module phân loại văn bản vào trong web “Tịa soạn báo điện tử” mà giờ đây cơng việc phân loại tin tức điện tử đã trở nên nhanh chĩng và tiện lợi hơn. Tuy xác suất phân loại đúng chưa đảm bảo cho hệ thống phân loại văn bản hồn tồn tự động, mà cần cĩ sự duyệt bài lại để đảm bào chính xác hồn tồn, nhưng module phân loại văn bản bán tự động cũng đã cung cấp cho người dùng một tiện ích vơ cùng hữu hiệu. 111 Chương 8 TỔNG KẾT Kết quả đạt được Về mặt lý thuyết Về mặt thực hành Hạn chế và hướng giải quyết Kết luận 112 Chương 8. TỔNG KẾT 8.1. Kết quả đạt được 8.1.1. Về mặt lý thuyết Phân loại văn bản là một bài tốn khĩ và rất thú vị. Khĩ bởi vì vấn đề phân loại văn bản cần phải thực hiện xử lý ngơn ngữ, mà như chúng ta đều biết, ngơn ngữ tự nhiên là muơn hình vạn trạng, khơng chỉ phong phú về từ vựng, cú pháp mà cịn phức tạp về ngữ nghĩa. Nhưng đây lại là bài tốn rất thú vị vì với mỗi ngơn ngữ khác nhau, chúng ta phải thực hiện những cách xử lý khác nhau đối với ngơn ngữ. Trong khuơn khổ luận văn này, những vấn đề liên quan đến đề tài như các phương pháp tách từ và phương pháp phân loại văn bản đã được chúng em tiến hành nghiên cứu khá cơng phu theo cả chiều rộng lẫn chiều sâu về. Trên cơ sở nghiên cứu đĩ, các hướng tiếp cận áp dụng cho tiếng Anh và tiếng Hoa phù hợp đã được lựa chọn và thử nghiệm lên tiếng Việt. Đặc biệt, ở giai đoạn tách từ chuẩn bị cho phân loại, chúng em đã tìm hiểu một cách sâu sắc về hướng thống kê dựa trên Internet. Dựa trên nền tảng đĩ, chúng em mạnh dạn thực hiện cải tiến phương pháp tách từ dựa trên Internet và thuật tốn di truyền thay vì sử dụng lại các cơng cụ tách từ tiếng Việt đã được cơng bố trước đây. Hướng tiếp cận mới này khơng những hạn chế được nhược điểm phụ thuộc vào tập ngữ liệu của các phương pháp khác mà cịn đem lại khả năng khai thác vơ tận nguồn dữ liệu khổng lồ của nhân loại : word-wide-web. Kết quả đạt được của phương pháp này là hồn tồn khả quan và chấp nhận được đối với một hướng tiếp cận mới cho tách từ tiếng Việt dùng trong phân loại văn bản. Phương pháp phân loại văn bản Nạve Bayes thường được dùng trong phân loại văn bản tiếng Anh, nay được áp dụng trong tiếng Việt với hướng tiếp cận dựa trên thống kê từ Google tỏ ra khá hiệu bởi. Nhờ tính đơn giản, các thơng số tính tốn khơng cần quá lớn như các phương pháp khác, khả năng linh hoạt đối với sự thay đổi về thơng tin huấn luyện, thời gian phân loại phù hợp yêu cầu, Nạve Bayes đã tở ra rất phù hợp với các yêu cầu đề ra. 113 8.1.2. Về mặt thực nghiệm Cơng trình nghiên cứu của luận văn đã thực hiện được nhiều thử nghiệm đối với từng hướng tiếp cận tách từ tiếng Việt dựa trên Google cũng như phân loại văn bản. Nhờ vậy, kết quả thực nghiệm đã chứng minh được tính hiệu quả cho các cơng thức trên lý thuyết. Qua kết quả thực nghiệm, chúng em nhận thấy cơng thức tách từ của [H. Nguyen et al, 2005] và cơng thức MI do chúng em đề nghị cho hiệu quả gần tương đương nhau, tuy cách tính của [H. Nguyen et al, 2005] cĩ vẻ chính xác hơn cho các từ cĩ hai tiếng. Kết quả thực nghiệm ở phần phân loại văn bản cho thấy cơng thức phân loại trong [H. Nguyen et al, 2005] là mang tính chủ quan của tác giả, và dữ liệu thực nghiệm khơng đủ lớn để cĩ thể kết luận. Nhưng khi áp dụng thử nghiệm trên số lượng văn bản và chủ đề nhiều hơn thì cách tính này cho ra kết quả thấp hơn nhiều so với kết quả mà tác giả trình bày. Kết quả sử dụng cơng thức Nạve Bayes đã cho kết quả khả quan hơn nhờ dựa vào lý thuyết đã được chứng minh từ các cơng trình trước. 8.2. Hạn chế và hướng phát triển Với những kết quả thử nghiệm ban đầu, hệ thống phân loại văn bản đã bước đầu hoạt động hiệu quả , gĩp phần thực hiện phân loại văn bản bán tự động, giúp tiết kiệm được thời gian và cơng sức đọc văn bản một cách thủ cơng. Mặc dù những kết quả của hệ thống là chấp nhận được, tuy nhiên hệ thống cĩ thể được cải thiện về độ chính xác và tốc độ nếu ta khắc phục một số hạn chế của hệ thống và thực hiện thêm các hướng mở rộng khác được trình bày sau đây. Phương pháp tách từ dựa trên Internet và thuật tốn di truyền tỏ ra khá linh hoạt trong việc xử lý ngơn ngữ. Tuy nhiên với mặt bằng chất lượng Internet hiện nay ở Việt Nam, bước đầu thực hiện việc tách từ sẽ khá lâu vì phải mất thời gian lấy thơng tin từ cơng cụ tìm kiếm trên mạng. Nhưng khi các thơng tin trên được lưu lại tương đối lớn, tốc độ phân định ranh giới từ sẽ được cải thiện. 114 Trong phần thử nghiệm phân loại văn bản, hiện tại chúng em quy định một chủ đề chỉ cĩ một từ khĩa chính là tên của chủ đề đĩ. Chính đây là một điểm hạn chế dẫn đến kết quả phân loại văn bản chưa cao như trong các cơng trình phân loại văn bản tiếng Anh. Do vậy, nhu cầu xây dựng một cơng cụ chiết xuất từ khĩa tự động từ tập dữ liệu tin tức thơ là rất cần thiết. Khi đã cĩ tập từ khĩa, độ chính xác của việc phân loại văn bản sẽ tăng lên đáng kể. Hiện tại, luận văn thực hiện phân loại theo hướng tiếp cận Nạve Bayes với các từ được tách trong câu mà khơng cĩ sự chọn lựa những từ đặc trưng để thực hiện phân loại. Điều này dẫn đến một số từ khơng cĩ ý nghĩa phân loại vẫn xem như cĩ vai trị tương tự như những từ cĩ ý nghĩa phân loại cao. Nếu chúng ta nghiên cứu thực hiện chọn lựa các đặc trưng của văn bản (feature selection) rồi mới phân loại, chứng ta sẽ đạt được tỉ lệ chính xác cao hơn và tăng tốc độ xử lý của hệ thống sẽ tăng lên đáng kể. Trong luận văn này, chúng em chỉ mới chọn thực hiện thử nghiệm phân loại tiếng Việt với hướng tiếp cận Nạve Bayes mà chưa chọn các phương pháp khác. Điều này là do phần nhiều bởi tính chủ quan và một số giới hạn về sự nghiên cứu. Do đĩ, việc mở rộng thử nghiệm phân loại văn bản tiếng Việt trên các hướng tiếp cận khác như SVM, kNN… sẽ cĩ thể đem lại nhiều kết quả cao hơn trong lĩnh vực này. 8.3. Kết luận Hệ thống phân loại văn bản ứng dụng cơng cụ tách từ tiếng Việt dựa trên thống kê Internet và thuật tốn di truyền là ứng dụng một hướng tiếp cận mới đầy hứa hẹn cho phương pháp tách từ tiếng Việt, vốn hiện nay vẫn cịn nhiều hạn chế. Ngồi ra, phần mềm phân loại bán tự động tin tức của luận văn cĩ nhiều ý nghĩa thực tiễn trong việc quản trị thơng tin của các tờ báo điện tử nĩi riêng, và trong các lĩnh vực địi hỏi đến việc xử lý ngơn ngữ nĩi chung. Với ý nghĩa to lớn đĩ, chúng em nguyện cố gắng nhiều hơn nữa tìm hiểu, nghiên cứu cải tiến hệ thống đạt hiệu quả ngày càng cao. 115 TÀI LIỆU THAM KHẢO [Broder et al, 2003] Andrei Z. Broder (NY), Marc Najork(CA), Janet L. Wiener(CA). Efficient URL Caching for World Wide Web Crawling, 2003. [Bagrow et al, 2004J.P. Bagrow, H.D. Rozenfeld, E.M. Bollt, and D. ben-Avraham, “How Famous is a Scientist? – Famous to Those Who Know Us.", arxiv.org/abs/cond-mat/0404515, Europhys. Lett., 67, (4) 511-516 (2004). [Berger, 1999] Adam Berger, Error-correcting output coding for text classification. In proceedings of IJCAI-99 Workshop on Machine Learning for Information Filtering, Stockholm, Sweeden, 1999. [Chien et al, 1997] Lee-Feng Chien, T. I. Huang, M. C. Chen. 1997. PATTree- Based Keyword Extraction for Chinese Information Retrieval, Proceedings of 1997 ACM SIGIR Conference, Philadelphia, USA, 50-58. [Chih-Hao Tsai, 2000] Chih-Hao Tsai, 2000. MMSEG: A Word Identification System for Mandarin Chinese Text Based on Two Variants of the Maximum Matching Algorithm. Web publication at [Church et al, 1991] Kenneth Church, William Gale, Patrick Hanks, Donald Hindle, Using Statistics in Lexical Analysis, Bell Laboratories and Oxford University Press, 1991. [Dasarathy, 1991] Belur V. Dasarathy. Nearest Neighbor (NN) Norms: NN Pattern Classication Techniques. McGraw-Hill Computer Science Series. IEEE Computer Society Press, Las Alamitos, California, 1991. [Đinh Điền et al, 2001] Đinh Điền, Hoang Kiem, Nguyen Van Toan. 2001. Vietnamese Word Segmentation. pp. 749 -756. The sixth Natural Language Processing Pacific Rim Symposium, Tokyo, Japan. [Đinh Điền,2004] Đinh Điền, Giáo trình xử lý ngơn ngữ tự nhiên, Đại học Khoa Học Tự Nhiên Tp.HCM, 12/2004 [Foo & Li, 2004] Foo S., Li H. 2004. Chinese Word Segmentation and Its Effect on Information Retrieval, Information Processing & Management: An International Journal, 40(1): 161-190. 116 [Fuhr et al, 1991] N. Fuhr, S. Hartmanna, G. Lustig, M. Schwantner, and K. Tzeras. Air/x – a rule-based multistage indexing system for large subject fields. In 606- 623, editor, Proceedings of RIAO’91, 1991. [Ghani, 2000] Rayid Ghani, Using error-correcting codes for text classification. In proceedings of Seventeenth International Conference on Machine Learning, 2000 [Goldberg et al, 1992] Goldberg, D.E., Deb, K., & Clark, J.H. (1992). Genetic algorithms, noise, and the sizing of populations. Complex Systems, 6. 333-362. [H. Nguyen et al, 2005] H. Nguyen, H. Nguyen, T. Vu, N. Tran, K. Hoang ,2005. Internet and Genetics Algorithm-based Text Categorization for Documents in Vietnamese, Research, Innovation and Vision of the Future, the 3rd International Conference in Computer Science, (RIFT 2005), Can Tho, Vietnam. [He et al, 1996] He, J., Xu, J., Chen, A., Meggs, J, & Gey, F. C. (1996). Berkeley Chinese information retrieval at TREC–5: Technical report. .html, Maryland. [James & Daniel, 2005] James P.Pagrow & Daniel ben-Avraham. On the Google – Fame of Scientist and other populations, 2005. [Jason, 2001] Jason D.M Rennie, Improving Multi-class Text Classification with Naive Bayes, 2001 [Joachims, 1998] Thorsten Joachims. Text Categorization with Support Vector Machines: Learning with Many Relevant Features. In European Conference on Machine Learning (ECML), 1998 [Kwok, 1997a] Kwok, K.L. (1997a) Comparing representations in Chinese information retrieval. [Kwok, 1997b] Kwok, K.L. (1997b) Lexicon effects on Chinese information retrieval. [Le An Ha, 2003] Le An Ha, 2003. A method for word segmentation Vietnamese. Proceddings of Corpus Linguistics 2003, Lancaster, UK. [Maron, 1961] Maron, Automated indexing, JACM, 1961 117 [Mateev et al, 1997] Mateev, B., Munteanu, E., Sheridan, P., Wechsler, M., & Schuble, P. (1997). ETH TREC-6: Routing, Chinese, cross-language and spoken document retrieval. trec6/t6_ proceedings.html, Maryland. [McCallum & Nigam, 1998] Andrew McCallum & Kamal Nigam. A comparison of Event Models for Nạve Bayes Text Classification, 1998. [Mitchell, 2005] Tom M. Mitchell. Generative and Discriminative Classifiers: Nạve Bayes and Logistic Regression, textbook Machine Learning, DRAFT OF March 6, 2005. [Nie et al, 1996] Nie, J.Y., Brisebois, M., & Ren, X.B. (1996). On Chinese text retrieval. Proceedings of SIGIR '96, Zurich, Switzerland, 225-233. [Ong & Chen, 1999] Thian-Huat Ong & Hsinchun Chen. Updateable PAT-Tree Approach to Chinese Key Phrase Extraction using Mutual Information: A Linguistic Foundation for Knowledge Management, Proceedings of the Second Asian Digital Library Conference, pp.63-84, 1999. [Platt, 1998] J.Platt. Sequential minimal optimization : A fast algorithm for training support vector machines. In Technical Report MST-TR-98-14. Microsoft Research,1998 [Richard et al,1996] Richard W Sproat. Chilin Shih, William Gale, and Nancy Chang. A stochastic finite-state word-segmentation algorithm for Chinese. CL, 22(3):377-404. 1996 [Rijsbergen et al, 1970] Van Rijsbergen, Robertson, Sparck Jones, Croft, Harper (early 1970’s) –search engines [Rudi & Paul, 2005] Rudi Cilibrasi & Pau Vitanyi, Automatic Meaning Discovery Using Google, Neitherlands, 2005. [Sahami et al, 1998] Sahami, Dumais, Heckerman, Horvitz (1998) –spam filtering [Schütze et al,1995] Schütze, H. Hull, D. , and Pedersen, J. (1995). A comparison of classifier and document representations for the routing problem. In International ACM SIGIR Conference on Research and Development in Information Retrieval. 118 [Simkin & Roychowdhurry, 2003] M.V. Simkin and V.P. Roychowdhury, “Theory of Aces:Fame by chance or merit?" (preprint, arxiv.org/abs/condmat/0310049, 2003). [Su et al, 1993] Keh-Yih Su, Ming-Wen Wu, Jing-Shin Chang. A Corpus-based Approach to Automatic Compound Extraction, 1993 [Vapnik & Cortes, 1995] C.Cortes and V.Vapnik, Support Vector Network. Machine Learning, 20:273-297,1995 [Vapnik, 1995] V.Vapnik, The Nature of Statistical Learning Theory. Springer, NewYork, 1995. [Wiener et al, 1995] Erik Wiener, Jan O. Pedersen, and Andreas S. Weigend. A Neural Network Approach to Topic Spotting. In Proceedings of the Fourth Annual Sumposium on Document Analysis and Information Retrieval (SDAIR’95), 1995. [William & Yoram, 1996] William W. Cohen and Yoram Singer. Context-sensitive learning methods for text categorization. In SIGIR ’96: Proceedings of the 19th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval, 1996. 307-315. [Wu & Tseng, 1993] Wu, Z.M., & Tseng, G. (1993). Chinese text segmentation for text retrieval: Achievements and problems. Journal of the American Society for Information Science, 44 (9), 532-542. [Wu & Tseng, 1995] Wu, Z.M., & Tseng, G. (1995). ACTS: An automatic Chinese text segmentation system for full text retrieval. Journal of the American Society for Information Science, 46(2), 83-96 [Yang & Chute, 1992] Y. Yang and G.Chute. A Linear Least Squares Fit Mapping Method for Information Retrieval from Natural Language Texts, 1992 [Yang & Chute, 1994] Y. Yang and G.Chute. An example-based mapping method for text categorization and retrieval. ACM Transaction on Information Systems(TOIS), 12(3):252-277,1994 119 [Yang & Petersen, 1997] Yang, Y. and Petersen, J. (1997). A comparative study on feature selection in text categorization. In International Conference on Machine Learning(ICML). [Yang & Wilbur, 1996] Yang, Y. and Wilbur, J. (1996). Using corpus statistics to remove redundant words in text categorization. Journal of the American Society for Information Science, 47(5):357-369. [Yang & Xiu, 1999] Yiming Yang and Xin Liu, A re-examination of text categorization methods. Proceedings of ACM SIGIR Conference on Research and Development in Information Retrieval (SIGIR’ 99) [Yang, 2000] Yiming Yang. An Evaluation of Statistical Approaches to Text Categorization, Kluwer Academic Publishers, 2000.

Các file đính kèm theo tài liệu này:

  • pdfCNTT1036.pdf
Tài liệu liên quan