Luận văn Nghiên cứu và cài đặt một số giải thuật phân cụm, phân lớp

MỤC LỤC MỞ ĐẦU . 3 MỘT SỐ TỪ VIẾT TẮT VÀ THUẬT NGỮ THƯỜNG DÙNG 5 DANH MỤC BẢNG . 6 DANH MỤC HÌNH 7 CHƯƠNG 1: TỔNG QUAN PHÁT HIỆN TRI THỨC VÀ KHAI PHÁ DỮ LIỆU 8 1.1 Giới thiệu chung 8 1.2 Các kỹ thuật khai phá dữ liệu 10 1.3 Lợi thế của khai phá dữ liệu so với các phương pháp khác 13 1.4 Các ứng dụng của KDD và những thách thức đối với KDD 15 1.5 Kết luận 17 CHƯƠNG 2: KỸ THUẬT PHÂN LOẠI TRONG KHAI PHÁ DỮ LIỆU . 18 2.1 Phân loại là gì? 18 2.2 Các vấn đề quan tâm của phân loại . 20 2.3 Phân loại bằng cây quyết định quy nạp . 22 2.4 Phân loại Bayesian 30 2.5 Phân loại bằng lan truyền ngược . 37 2.6 Phân loại dựa trên sự kết hợp 48 2.7 Các phương pháp phân loại khác 50 2.8 Độ chính xác classifier 56 2.9 Kết luận 59 CHƯƠNG 3: KỸ THUẬT PHÂN CỤM TRONG KHAI PHÁ DỮ LIỆU 60 3.1 Phân cụm là gì . 60 3.2 Các kiểu dữ liệu trong phép phân cụm 64 3.3 Phân loại các phương pháp phân cụm chính . 74 3.4 Các phương pháp phân chia 77 3.5 Các phương pháp phân cấp . 84 3.6 Các phương pháp phân cụm dựa trên mật độ 94 3.7 Các phương pháp phân cụm dựa trên lưới 101 3.8 Kết luận 107 CHƯƠNG 4: CÀI ĐẶT THỬ NGHIỆM 108 4.1 Thiết kế tổng thể 108 4.2 Chuẩn bị dữ liệu 108 4.3 Thiết kế chương trình 109 4.4 Kết quả thực nghiệm và đánh giá 110 4.5 Kết luận 114 KẾT LUẬN . 116 TÀI LIỆU THAM KHẢO . 118

pdf119 trang | Chia sẻ: maiphuongtl | Lượt xem: 2085 | Lượt tải: 3download
Bạn đang xem trước 20 trang tài liệu Luận văn Nghiên cứu và cài đặt một số giải thuật phân cụm, phân lớp, để xem tài liệu hoàn chỉnh bạn click vào nút DOWNLOAD ở trên
,( ),( 'min),( ',max ' ',min ppCCd ppnnCCd mmCCd ppCCd ji i j ji CpCpji Cp Cpjijiavg jijimean CpCpji −= −= −= −= ∈∈ ∈ ∈ ∈∈ ∑ ∑ Ví dụ 3.4: Giả sử có một tập đối tượng được định vị trong một hình chữ nhật như hình 3.5. Phương pháp phân cụm phân cấp tích đống AGNES làm việc như sau: Ban đầu mọi đối tượng được đặt vào trong một cụm của bản thân nó. Sau đó các cụm này được hoà nhập từng bước theo một số nguyên tắc như hoà nhập các cụm với khoảng cách Euclidean tối thiểu giữa các đối tượng gần nhất trong cụm. Hình 3.5 a) chỉ ra rằng các cụm đối tượng đơn gần nhất (tức là với khoảng cách Euclidean tối thiểu) trước tiên được hoà nhập vào trong hai cụm đối tượng. Xử lý hoà nhập cụm này được lặp lại và các cụm gần nhất lại được hoà nhập sau đó, như hình 3.5 b) và c). Cuối cùng, tất cả các đối tượng được hoà nhập vào trong một cụm lớn. Hình 3.5: Phân cụm một tập các điểm dựa trên phương pháp "Tích đống lồng" Phương pháp phân cụm phân cấp phân ly DIANA làm việc theo trật tự ngược lại. Đó là, trước tiên tất cả các đối tượng được đặt vào trong một cụm. Sau đó cụm được chia theo một số nguyên tắc, như là chia các cụm theo khoảng cách Euclidean cực đại giữa các đối tượng láng giềng gần nhất trong cụm. Hình 3.5 c) có thể được quan sát như là kết quả của phép phân chia đầu tiên. Xử lý phân chia cụm này được lặp lại và mỗi cụm lại tiếp tục được chia theo cùng tiêu -87- chuẩn. Hình 3.5 b) và a) có thể được quan sát như là snapshot của phân chia. Cuối cùng mỗi cụm sẽ chứa chỉ một đối tượng đơn. Trong phân cụm phân cấp tích đống hay phân ly, ta có thể chỉ định số lượng các cụm cần có như một điều kiện kết thúc để xử lý phân cụm phân cấp dừng khi xử lý tiến đến số lượng cụm cần thiết. Phương pháp phân cụm phân cấp mặc dầu đơn giản nhưng thường gặp khó khăn khi ra các quyết định tới hạn cho việc lựa chọn của các điểm hoà nhập hay phân chia một cách chính xác. Quyết định như vậy gọi là tới hạn bởi một khi một nhóm các đối tượng được hoà nhập hay chia, xử lý tại bước tiếp theo sẽ làm việc trên các cụm mới được sinh ra. Nó sẽ không bao giờ huỷ những gì đã làm trước đó và cũng không thực hiện chuyển đổi đối tượng giữa các cụm. Do vậy các quyết định hoà nhập hay phân chia nếu không đủ sáng suốt ở mỗi bước thì có thể dẫn tới chất lượng của các cụm sẽ kém. Hơn nữa, phương pháp này khả năng mở rộng không được tốt nên quyết định hoà nhập hay phân chia cần kiểm định và đánh giá một số lượng tốt các đối tượng hay các cụm. Một hướng hứa hẹn để cải thiện chất lượng phân cụm của phương pháp phân cấp là tích hợp phân cụm phân cấp với các kỹ thuật phân cụm khác để có phân cụm nhiều pha. Một vài phương pháp như vậy được giới thiệu trong các mục con dưới đây. Thứ nhất là BIRCH, trước tiên sử dụng cấu trúc cây để phân chia phân cấp các đối tượng, sau đó áp dụng các giải thuật phân cụm khác để hình thành nên các cụm cải tiến. Thứ hai là CURE, đại diện cho mỗi cụm là một số lượng nào đó các điểm đại diện đã được ấn định, sau đó co chúng lại về phía tâm cụm bởi một phân số đã chỉ định. Thứ ba là ROCK, hoà nhập các cụm dựa trên liên kết nối của chúng. Thứ tư là CHAMELEON, khảo sát mô hình hoá động trong phân cụm phân cấp. 3.5.2 BIRCH: Dùng các cấp, cân bằng giữa giảm số lần lặp và phân cụm Một phương pháp phân cụm phân cấp được tích hợp thú vị gọi là BIRCH (Balanced Iterative Reducing and Clustering using Hierachies) (Zhang, Ramakrishnan và Livny 1996). Nó đưa ra hai khái niệm: đặc trưng phân cụm -88- (CF - Clustering Feature) và cây CF (Clustering Feature tree), sử dụng cây CF đại diện một cụm tóm tắt để có được tốc độ và khả năng mở rộng phân cụm tốt trong các cơ sở dữ liệu lớn. Nó cũng tốt đối với phân cụm tăng trưởng động của các điểm dữ liệu đầu vào. Một đặc trưng phân cụm CF là một bộ ba thông tin tóm tắt về cụm con các điểm. Cho trước N điểm có hướng {Xi} trong một cụm con, CF được định nghĩa như sau: ),,( SSLSNCF = (3.23) với N là số các điểm trong cụm con, LS là tổng tuyến tính trên N điểm∑ =Ni iX1 r và SS là tổng bình phương của các điểm dữ liệu 21 iNi X∑ = r . Một cây CF là một cây cân bằng chiều cao, nó lưu trữ các đặc trưng phân cụm. Nó có hai tham số: hệ số phân nhánh B và ngưỡng T. Hệ số phân nhánh chỉ rõ số lượng tối đa các con. Tham số ngưỡng chỉ rõ đường kính tối đa của các cụm con được lưu trữ tại các nút lá. Bằng cách thay đổi giá trị ngưỡng, nó có thể thay đổi kích thước của cây. Các nút không phải là lá lưu trữ tổng các CFs của các nút con, do vậy, tóm tắt thông tin về các con của chúng. Giải thuật BIRCH có hai pha sau đây: • Pha 1: Quét cơ sở dữ liệu để xây dựng một cây CF bộ nhớ trong ban đầu, nó có thể được xem như là nén đa mức của dữ liệu mà nó cố gắng bảo toàn cấu trúc phân cụm vốn có của dữ liệu. • Pha 2: Áp dụng một giải thuật phân cụm (đã lựa chọn) để phân cụm các nút lá của cây CF. Trong pha 1, cây CF được xây dựng động khi các điểm dữ liệu được chèn vào. Do vậy, phương pháp này là một phương pháp tăng trưởng. Một điểm được chèn vào tới entry (cụm con) lá gần nhất. Nếu như đường kính của cụm con đã lưu trữ nút lá sau khi chèn lớn hơn giá trị ngưỡng, thì nút lá và các nút có thể khác bị chia. Sau khi chèn một điểm mới, thông tin về nó được đưa qua theo hướng gốc của cây. Ta có thể thay đổi kích thước cây CF bằng cách thay đổi -89- ngưỡng. Nếu như kích thước bộ nhớ cần thiết để lưu trữ cây CF là lớn hơn kích thước bộ nhớ chính thì một giá trị nhỏ hơn của ngưỡng được chỉ định và cây CF được xây dựng lại. Xử lý xây dựng lại này được biểu diễn bằng cách xây dựng một cây mới từ các nút lá của cây cũ. Do vậy, xử lý xây dựng lại cây được làm mà không cần đọc lại tất cả các điểm. Bởi vậy, để xây dựng cây, dữ liệu chỉ phải đọc một lần. Nhiều heuristic và các phương pháp cũng được giới thiệu để giải quyết các outlier và cải thiện chất lượng cây CF bởi các lần quét thêm vào của dữ liệu. Sau khi cây CF được xây dựng, bất kỳ một giải thuật phân cụm nào, ví dụ như giải thuật phân chia điển hình có thể được dùng với cây CF trong pha 2. BIRCH cố gắng đưa ra các cụm tốt nhất với các tài nguyên có sẵn. Với số lượng giới hạn của bộ nhớ chính, một xem xét quan trọng là cần tối thiểu hoá thời gian yêu cầu đối với I/O. Nó áp dụng kỹ thuật phân cụm nhiều pha: quét đơn tập dữ liệu mang lại một cơ sở phân cụm tốt, và một hay nhiều lần quét thêm vào (tuỳ ý) được dùng để cải thiện xa hơn chất lượng. Bởi vậy độ phức tạp tính toán của giải thuật là O(N), với N là số các đối tượng được phân cụm. Bằng các thử nghiệm đã thấy được khả năng mở rộng tuyến tính của giải thuật về mặt số lượng các điểm và chất lượng tốt của phân cụm dữ liệu. Tuy nhiên, mỗi nút trong cây CF có thể chỉ nắm giữ một số lượng giới hạn các entry bởi kích thước của nó, một nút cây CF không phải luôn luôn tương đương với một cụm tự nhiên. Hơn nữa, nếu các cụm không phải có hình cầu, BIRCH sẽ không thực hiện tốt bởi nó sử dụng khái niệm bán kính hay đường kính để điều khiển đường bao một cụm. 3.5.3 CURE: Phân cụm sử dụng các đại diện Hầu hết các giải thuật phân cụm hoặc là có ưu đãi các cụm có dạng hình cầu và kích thước giống nhau, hoặc là rất mong manh với sự hiện diện của các outlier. Một phương pháp thú vị gọi là CURE (Clustering Using REpresentatives) (Guha, Rastogi và Shim 1998), tích hợp các giải thuật phân -90- chia và phân cấp, khắc phục vấn đề ưu đãi các cụm có dạng hình cầu và kích thước giống nhau. CURE cung cấp một giải thuật phân cụm phân cấp mới lạ theo vị trí giữa (middle ground) giữa việc dựa trên trọng tâm và tất cả các cực điểm. Thay vì sử dụng một trọng tâm đơn đại diện một cụm, CURE ấn định một số lượng các điểm đại diện được lựa chọn để miêu tả một cụm. Các điểm đại diện này được sinh ra bằng cách trước tiên lựa chọn các điểm rải rác đều trong cụm, sau đó co chúng lại về phía tâm cụm bởi một phân số (hệ số co). Các cụm với cặp các điểm đại diện gần nhất sẽ được hoà nhập tại mỗi bước của giải thuật. Mỗi cụm có hơn một điểm đại diện cho phép CURE điểu chỉnh tốt hình học của các hình không phải hình cầu. Việc co lại giúp làm giảm đi hiệu quả của các outlier. Bởi vậy, CURE thực sự mạnh hơn đối với các outlier và nhận biết các cụm không có dạng hình cầu với kích thước khác nhau nhiều. Để vận dụng các cơ sở dữ liệu lớn, CURE dùng kết hợp lấy mẫu và phân chia ngẫu nhiên: Một mẫu ngẫu nhiên trước tiên được phân chia và mỗi phân chia được phân cụm cục bộ. Các cụm cục bộ sau đó được phân cụm lần thứ hai để có được các cụm mong muốn. Các bước chính của giải thuật CURE được phác hoạ vắn tắt như sau: (1) Lấy một mẫu ngẫu nhiên s; (2) Phân chia mẫu s thành p phần, mỗi phần có kích thước s/p; (3) Cụm cục bộ phân chia thành s/pq cụm q>1; (4) Khử các outlier bằng cách lấy mẫu ngẫu nhiên: Nếu một cụm tăng trưởng quá chậm, loại bỏ nó; (5) Phân cụm các cụm cục bộ, một xử lý co nhiều điểm đại diện về phía trọng tâm bằng một phân số α được chỉ định bởi người dùng, tại đó các đại diện có được hình dạng của cụm; (6) Đánh dấu dữ liệu với nhãn cụm tương ứng. Sau đây ta biểu diễn một ví dụ để thấy cách làm việc của CURE. Ví dụ 3.5: Giả sử có một tập các đối tượng được định vị trong một hình chữ nhật. Cho p = 2, người dùng cần phân cụm các đối tượng vào trong hai cụm. -91- Hình 3.6: Phân cụm một tập các điểm bằng CURE Trước tiên, 50 đối tượng được lấy mẫu như hình 3.6 a). Sau đó, các đối tượng này được phân chia ban đầu vào trong hai cụm, mỗi cụm chứa 50 điểm. Ta phân cụm cục bộ các phần chia này thành 10 cụm con dựa trên khoảng cách trung bình tối thiểu. Mỗi đại diện cụm được đánh dấu bởi một chữ thập nhỏ, như hình 3.6 b). Các đại diện này được di chuyển về phía trọng tâm bởi một phân số α, như hình 3.6 c).Ta có được hình dạng của cụm và thiết lập thành 2 cụm. Do vậy, các đối tượng được phân chia vào trong hai cụm với các outlier được gỡ bỏ như biểu diễn ở hình 3.6 d). CURE đưa ra các cụm chất lượng cao với sự hiện hữu của các outlier, các hình dạng phức tạp của các cụm với các kích thước khác nhau. Nó có khả năng mở rộng tốt cho các cơ sở dữ liệu lớn mà không cần hy sinh chất lượng phân cụm. CURE cần một ít các tham số được chỉ định bởi người dùng, như kích thước của mẫu ngẫu nhiên, số lượng các cụm mong muốn và hệ số co α. Độ nhạy một phép phân cụm được cung cấp dựa trên kết quả của việc thay đổi các tham số. Mặc dầu nhiều tham số bị thay đổi mà không ảnh hưởng tới chất lượng phân cụm nhưng tham số thiết lập nhìn chung có ảnh hưởng đáng kể. Một giải thuật phân cụm phân cấp tích đống khác được phát triển bởi (Guha, Rastogi và Shim 1999) gọi là ROCK, nó phù hợp cho việc phân cụm các thuộc tính xác thực. Nó đo độ tương đồng của 2 cụm bằng cách so sánh toàn bộ liên kết nối của 2 cụm dựa trên mô hình liên kết nối tĩnh được chỉ định bởi người dùng, tại đó liên kết nối của hai cụm C1 và C2 được định nghĩa bởi số -92- lượng các liên kết chéo giữa hai cụm và liên kết link(pi, pj) là số lượng các láng giềng chung giữa hai điểm pi và pj. ROCK trước tiên xây dựng đồ thị thưa từ một ma trận tương đồng dữ liệu cho trước, sử dụng một ngưỡng tương đồng và khái niệm các láng giềng chia sẻ, và sau đó biểu diễn một giải thuật phân cụm phân cấp trên đồ thị thưa. 3.5.4 CHAMELEON: Một giải thuật phân cụm phân cấp sử dụng mô hình động Một giải thuật phân cụm thú vị khác gọi là CHAMELEON, nó khảo sát mô hình hoá động trong phân cụm phân cấp, được phát triển bởi Karypis, Han và Kumar (1999). Khi xử lý phân cụm, 2 cụm được hoà nhập nếu liên kết nối và độ chặt (độ gần) giữa hai cụm được liên kết cao với liên kết nối và độ chặt nội tại của các đối tượng nằm trong phạm vi các cụm. Xử lý hoà nhập dựa trên mô hình động tạo điều kiện thuận lợi cho sự khám phá ra các cụm tự nhiên và đồng nhất, nó áp dụng cho tất cả các kiểu dữ liệu miễn là hàm tương đồng được chỉ định. CHAMELEON có được dựa trên quan sát các yếu điểm của hai giải thuật phân cụm phân cấp: CURE và ROCK. CURE và các lược đồ quan hệ bỏ qua thông tin về liên kết nối tổng thể của các đối tượng trong 2 cụm; ngược lại, ở ROCK, các lược đồ quan hệ lờ đi thông tin về độ chặt của 2 cụm trong khi nhấn mạnh liên kết nối của chúng. CHAMELEON trước tiên sử dụng một giải thuật phân chia đồ thị để phân cụm các mục dữ liệu vào trong một số lượng lớn các cụm con tương đối nhỏ. Sau đó dùng giải thuật phân cụm phân cấp tập hợp để tìm ra các cụm xác thực bằng cách lặp lại việc kết hợp các cụm này với nhau. Để xác định các cặp cụm con giống nhau nhất, cần đánh giá cả liên kết nối cũng như độ chặt của các cụm, đặc biệt là các đặc tính nội tại của bản thân các cụm. Do vậy nó không tuỳ thuộc vào một mô hình tĩnh được cung cấp bởi người dùng và có thể tự động thích ứng với các đặc tính nội tại của các cụm đang được hoà nhập. -93- Hình 3.7: CHAMELEON: Phân cụm phân cấp dựa trên k-láng giềng gần và mô hình hoá động Như hình 3.7, CHAMELEON miêu tả các đối tượng dựa trên tiếp cận đồ thị được dùng phổ biến: k-láng giềng gần nhất. Mỗi đỉnh của đồ thị k-láng giềng gần nhất đại diện cho một đối tượng dữ liệu, tại đó tồn tại một cạnh giữa hai đỉnh (đối tượng), nếu một đối tượng là giữa k đối tượng giống nhau so với các đối tượng khác. Đồ thị k-láng giềng gần nhất Gk có được khái niệm láng giềng động: Bán kính láng giềng của một điểm dữ liệu được xác định bởi mật độ của miền mà trong đó các đối tượng cư trú. Trong một miền dày đặc, láng giềng được định nghĩa hẹp, và trong một miền thưa thớt, láng giềng được định rộng hơn. So sánh với mô hình định nghĩa bởi phương pháp dựa trên mật độ như DBSCAN (giới thiệu ở mục sau), DBSCAN dùng mật độ láng giềng toàn cục, Gk có được láng giềng tự nhiên hơn. Hơn nữa, mật độ miền được ghi như trọng số của các cạnh. Cạnh của một miền dày đặc theo trọng số lớn hơn so với của một miền thưa thớt. CHAMELEON chỉ rõ sự tương đồng giữa mỗi cặp các cụm Ci và Cj theo liên kết nối tương đối RI(Ci,Cj) và độ chặt tương đối RC(Ci,Cj) của chúng. Liên kết nối tương đối RI(Ci,Cj) giữa hai cụm Ci và Cj được định nghĩa như liên kết nối tuyệt đối giữa Ci và Cj đã tiêu chuẩn hoá đối với liên kết nối nội tại của hai cụm Ci và Cj. Đó là: ( ) { }( ) ji ji CC CC ji ECEC EC CCRI + = 2 1, , (3.24) với { }ji CCEC , là cạnh cắt (edge-cut) của cụm chứa cả Ci và Cj để cụm này được rơi vào trong Ci và Cj, và tương tự như vậy, ECCi (hay ECCj) là kích thước -94- của min-cut bisector (tức là tổng trọng số của các cạnh mà chia đồ thị thành hai phần thô bằng nhau). Độ chặt tương đối giữa một cặp các cụm Ci và Cj là RC(Ci,Cj) được định nghĩa như là độ chặt tuyệt đối giữa Ci và Cj được tiêu chuẩn hoá đối với liên kết nối nội tại của hai cụm Ci và Cj. Đó là: ( ) { } jCiC ji EC ji j EC ji i CCEC ji S CC C S CC C S CCRC +++ = ,, (3.25) với { }jCiCECS , là trọng số trung bình của các cạnh kết nối các đỉnh trong Ci tới các đỉnh Cj và iCECS (hay jCECS ) là trọng số trung bình của các cạnh thuộc về min-cut bisecter của cụm Ci (hay Cj). Như vậy, CHAMELEON có nhiều khả năng khám phá ra các cụm có hình dạng tuỳ ý với chất lượng cao hơn so với DBSCAN và CURE. Tuy vậy, thời gian chi phí xử lý cho dữ liệu có chiều cao có thể là O(n2) cho n đối tượng trong tình huống xấu nhất. 3.6 Các phương pháp phân cụm dựa trên mật độ Để tìm ra các cụm với hình dạng tuỳ ý, các phương pháp phân cụm dựa trên mật độ đã được phát triển, nó kết nối các miền với mật độ đủ cao vào trong các cụm hay phân cụm các đối tượng dựa trên phân bố hàm mật độ. 3.6.1 DBSCAN: Phương pháp phân cụm dựa trên mật độ trên các miền có kết nối với mật độ đủ cao DBSCAN (Density-Based Spatial Clustering of Applications with Noise) là một giải thuật phân cụm dựa trên mật độ, được phát triển bởi Ester, Kriegel, Sander và Xu (1996). Giải thuật này tăng trưởng các miền với mật độ đủ cao vào trong các cụm và tìm ra các cụm với hình dạng tuỳ ý trong cơ sở dữ liệu không gian có nhiễu. Một cụm được định nghĩa như là một tập cực đại các điểm có kết nối dựa trên mật độ. -95- Ý tưởng cơ bản của phân cụm dựa trên mật độ như sau: Đối với mỗi đối tượng của một cụm, láng giếng trong một bán kính cho trước (ε) (gọi là ε -láng giềng) phải chứa chứa ít nhất một số lượng tối thiểu các đối tượng (MinPts). Một đối tượng nằm trong một bán kính cho trước (ε) chứa không ít hơn một số lượng tối thiểu các đối tượng láng giềng (MinPts), được gọi là đối tượng nòng cốt (core object) (đối với bán kính ε và số lượng tối thiểu các điểm MinPts). Một đối tượng p là mật độ trực tiếp tiến (directly density-reachable) từ đối tượng q với bán kính ε và số lượng tối thiểu các điểm MinPts trong một tập các đối tượng D nếu p trong phạm vi ε -láng giềng của q với q chứa ít nhất một số lượng tối thiểu các điểm MinPts. Một đối tượng p là mật độ tiến (density-reachable) từ đối tượng q với bán kính ε và MinPts trong một tập các đối tượng D nếu như có một chuỗi đối tượng p1,p2,...,pn, p1=q và pn=p với 1 ≤ i ≤ n, pi ∈ D và pi+1 là mật độ trực tiếp tiến từ pi đối với ε và MinPts. Một đối tượng p là mật độ liên kết với đối tượng q đối với ε và MinPts trong một tập đối tượng D nếu như có một đối tượng o ∈ D để cả p và q là mật độ tiến từ o đối với ε và MinPts. Ví dụ 3.6: Trong hình 3.8, ε cho trước đại diện cho bán kính các đường tròn, cho MinPts=3, M là mật độ trực tiếp tiến từ P; Q là mật độ (không trực tiếp) tiến từ P. Tuy nhiên P không phải là mật độ tiến từ Q. Tương tự như vậy, R và S là mật độ tiến từ O; và O, R và S tất cả là mật độ liên kết. Hình 3.8: Mật độ tiến và mật độ liên kết trong phân cụm dựa trên mật độ -96- Lưu ý rằng mật độ tiến là bắc cầu đóng (transitive closure) của mật độ trực tiếp tiến, và quan hệ này là không đối xứng. Chỉ các đối tượng nòng cốt là mật độ tiến lẫn nhau (giao hoán). Mật độ liên kết là một quan hệ đối xứng. Một cụm dựa trên mật độ là một tập các đối tượng mật độ liên kết là tối đa đối với mật độ tiến; mọi đối tượng không chứa trong bất kỳ một cụm nào là nhiễu. Dựa trên khái niệm mật độ tiến, giải thuật phân cụm dựa trên mật độ DBSCAN được phát triển để phân cụm dữ liệu trong cơ sở dữ liệu. Nó kiểm soát ε -láng giềng của mỗi điểm trong cơ sở dữ liệu. Nếu như ε -láng giềng của một điểm p chứa nhiều hơn MinPts, một cụm mới với p là đối tượng nòng cốt được thiết lập. Sau đó lặp lại việc tập hợp các đối tượng trực tiếp từ các đối tượng nòng cốt này, nó có thể bao gồm việc hoà nhập một vài cụm mật độ tiến. Xử lý này dừng khi không có điểm mới nào được thêm vào ở bất kỳ cụm nào. 3.6.2 OPTICS: Sắp xếp các điểm để nhận biết cấu trúc phân cụm Mặc dầu giải thuật phân cụm dựa trên mật độ DBSCAN có thể tìm ra cụm các đối tượng với việc lựa chọn các tham số đầu vào như ε và MinPts, người dùng vẫn chịu trách nhiệm lựa chọn các giá trị tham số tốt để tìm ra các cụm chính xác. Trên thực tế, đây là bài toán có sự kết hợp của nhiều giải thuật phân cụm khác. Các thiết lập tham số như vậy thường khá khó để xác định, đặc biệt trong thế giới thực, các tập dữ liệu số chiều cao. Hầu hết các giải thuật rất nhạy với các giá trị tham số: các thiết lập có sự khác biệt nhỏ có thể dẫn tới các phân chia dữ liệu rất khác nhau. Hơn nữa, các tập dữ liệu thực số chiều cao thường có phân bố rất lệch, thậm chí ở đó không tồn tại một thiết lập tham số toàn cục cho đầu vào, kết quả của một giải thuật phân cụm có thể mô tả bản chất cấu trúc phân cụm một cách chính xác. Để khắc phục khó khăn này, một phương pháp sắp xếp cụm gọi là OPTICS (Ordering Points To Identify the Clustering Structure) được phát triển bởi (Ankerst, Breunig, Kriegel và Sander 1999). Nó tính một sắp xếp phân cụm tăng dần cho phép phân tích cụm tự động và tương tác. Sắp xếp phân cụm này chứa -97- đựng thông tin tương đương với phân cụm dựa trên mật độ phù hợp với một phạm vi rộng các thiết lập tham số. Bằng cách khảo sát giải thuật phân cụm dựa trên mật độ, DBSCAN có thể dễ dàng thấy rằng đối với một giá trị hằng số MinPts, các cụm dựa trên mật độ đối với mật độ cao hơn (tức là một giá trị ε thấp hơn) được chứa hoàn toàn trong các tập mật độ liên kết đối với một mật độ thấp hơn. Bởi vậy, để đưa ra các cụm dựa trên mật độ với một tập các tham số khoảng cách, giải thuật cần lựa chọn các đối tượng để xử lý theo một trật tự cụ thể để đối tượng là mật độ tiến đối với giá trị ε thấp nhất được kết thúc trước tiên. Dựa trên ý tưởng này, hai giá trị cần được lưu trữ đối với mỗi đối tượng: khoảng cách nòng cốt (core-distance) và khoảng cách tiến (reachability- distance). Khoảng cách nòng cốt của một đối tượng p là khoảng cách nhỏ nhất ε' giữa p và một đối tượng trong ε - láng giềng của nó để p sẽ là một đối tượng nòng cốt đối với ε' nếu như láng giềng này được chứa trong ε - láng giềng của p. Nếu không thì khoảng cách nòng cốt là không xác định. Khoảng cách tiến của một đối tượng p đối với một đối tượng o khác là khoảng cách nhỏ nhất để p là mật độ trực tiếp tiến từ o nếu o là một đối tượng nòng cốt. Nếu o không phải là một đối tượng nòng cốt, ngay cả tại khoảng cách phát sinh ε, khoảng cách tiến của một đối tượng p đối với o là không xác định. Giải thuật OPTICS tạo lập trật tự của một cơ sở dữ liệu, thêm vào đó là lưu trữ khoảng cách nòng cốt và một khoảng cách tiến phù hợp với mỗi đối tượng. Thông tin như vậy là đủ cho sự rút trích của tất cả các phân cụm dựa trên mật độ đối với bất kỳ một khoảng cách ε' nhỏ hơn khoảng cách phát sinh ε từ trật tự này. Sắp xếp cụm của một tập dữ liệu có thể được trình bày và hiểu bằng đồ thị. Ví dụ, hình 3.9 là một biểu đồ tiến cho một tập dữ liệu hai chiều đơn giản, nó biểu diễn một cái nhìn tổng quát về dữ liệu được cấu trúc và phân cụm như thế -98- nào. Các phương pháp cũng được phát triển để quan sát các cấu trúc phân cụm cho dữ liệu số chiều cao. Hình 3.9: Sắp xếp cụm trong OPTICS Bởi tương đương cấu trúc của giải thuật OPTICS tới DBSCAN, giải thuật OPTICS có cùng độ phức tạp thời gian chạy như của DBSCAN. Các cấu trúc đánh chỉ số không gian có thể được dùng để nâng cao khả năng biểu diễn của nó. 3.6.3 DENCLUE: Phân cụm dựa trên các hàm phân bố mật độ DENCLUE (DENsity -based CLUstEring - phân cụm dựa trên mật độ) (Hinneburg và Keim 1998) là phương pháp phân cụm dựa trên một tập các hàm phân bố mật độ. Phương pháp được dựa trên ý tưởng sau: (1) Tác động của mỗi điểm dữ liệu có thể được làm mô hình chính thức sử dụng một hàm toán học gọi là hàm tác động, hàm tác động được xem như là một hàm mô tả tác động của một điểm dữ liệu trong phạm vi láng giềng của nó; (2) Toàn bộ mật độ của không gian dữ liệu có thể được làm mô hình theo phép phân tích tổng các hàm tác động của tất cả các điểm dữ liệu; (3) Các cụm sau đó có thể được xác định chính xác bằng cách nhận biết các attractor mật độ, tại đó các attractor mật độ cực đại cục bộ của toàn bộ hàm mật độ. Hàm tác động của một điểm dữ liệu y ∈ Fd, với Fd là một không gian đặc trưng d chiều, là một hàm cơ bản +→ 0: RFf dyB , được định nghĩa dưới dạng một hàm tác động cơ bản fB: -99- ( )yxff ByB ,= (3.26) Theo nguyên tắc, hàm tác động có thể là một hàm tuỳ ý nhưng nó nên là phản xạ và đối xứng. Nó có thể là một hàm khoảng cách Euclidean, một hàm tác động wave bình phương: ( ) ⎩⎨ ⎧ >= otherwise yxdif yxfSquare 1 ),(0 , σ (3.27) hay một hàm tác động Gaussian: ( ) 2 2 2 , ),( σ yxd Gause eyxf −= (3.28) Hình 3.10: Hàm mật độ và attractor mật độ Một hàm mật độ được định nghĩa là tổng các hàm tác động của tất cả các điểm dữ liệu. Cho trước N đối tượng dữ liệu được mô tả bởi một tập các vectơ đặc trưng D = {x1,...,xN} ⊂ FD, hàm mật độ được định nghĩa như sau: ( )∑ == Ni xBDB xff i1 (3.29) Ví dụ, hàm mật độ cho kết quả từ hàm tác động Gaussian (3.28) là: ( ) ∑ = −= Ni yxd D Gaussian exf 1 2 , 2 2 )( σ (3.30) Từ hàm mật độ, ta có thể định nghĩa độ dốc (gradient) của một hàm và attractor mật độ (attractor mật độ là cực đại cục bộ của toàn bộ hàm mật độ). Đối với một hàm tác động liên tục và phân biệt, một giải thuật leo đồi (hill climbing), được chỉ ra bởi độ dốc (gradient), có thể được dùng để xác định attractor mật độ của một tập các điểm dữ liệu. -100- Dựa trên các khái niệm này, cả cụm được định nghĩa trung tâm và cụm hình dạng tuỳ ý có thể được định nghĩa chính thức. Một cụm có định nghĩa trung tâm là một tập con C đang là mật độ được rút trích, với hàm mật độ không ít hơn một ngưỡng ξ, ngược lại (tức là nếu hàm mật độ nhỏ hơn ngưỡng ξ) thì nó là một outlier. Một cụm hình dạng tuỳ ý là một tập của tập con của C, mỗi tập đang là mật độ được rút trích, với hàm mật độ không ít hơn một ngưỡng ξ, và tồn tại một đường đi P từ mỗi miền tới những miền khác và hàm mật độ cho mỗi điểm dọc theo đường đi không ít hơn ξ. DENCLUE có các thuận lợi chính sau đây khi so sánh với các giải thuật phân cụm khác: (1) Nó có một nền tảng toán học vững chắc, tổng quát hoá các phương pháp phân cụm khác, bao gồm các phương pháp dựa trên phân chia, phân cấp và dựa trên vị trí; (2) Nó có các đặc tính phân cụm tốt đối với các tập dữ liệu với số lượng nhiễu lớn; (3) Nó cho phép một mô tả toán học cô đọng của các cụm có hình dạng tuỳ ý trong các tập dữ liệu số chiều cao; (4) Nó sử dụng các ô lưới nhưng chỉ giữ thông tin về các ô lưới mà thực sự chứa đựng các điểm dữ liệu và quản lý các ô này trong một cấu trúc truy cập dựa trên cây và do vậy nó nhanh hơn đáng kể so với các giải thuật tác động, như nó nhanh hơn DBSCAN tới 45 lần. Tuy vậy, phương pháp cần sự chọn lựa cẩn thận các tham số, tham số mật độ σ và ngưỡng nhiễu ξ, việc lựa chọn các tham số như vậy có ảnh hưởng đáng kể chất lượng của các kết quả phân cụm. Hình 3.11: Các cụm được định nghĩa trung tâm và các cụm có hình dạng tuỳ ý -101- 3.7 Các phương pháp phân cụm dựa trên lưới Một tiếp cận dựa trên lưới dùng cấu trúc dữ liệu lưới đa phân giải. Trước tiên nó lượng tử hoá không gian vào trong một số hữu hạn các ô mà đã hình thành nên cấu trúc lưới, sau đó thực hiện tất cả các thao tác trong cấu trúc lưới đó. Thuận lợi chính của tiếp cận này là thời gian xử lý nhanh, điển hình là độc lập của số lượng các đối tượng dữ liệu nhưng độc lập chỉ trên số lượng các ô trong mỗi chiều trong không gian lượng tử hóa. Các ví dụ điển hình của tiếp cận dựa trên lưới bao gồm STING - khảo sát thông tin thống kê được lưu trữ trong các ô lưới; WaveCluster - các cụm đối tượng sử dụng phương pháp biến đổi wavelet; CLIQUE - miêu tả một tiếp cận dựa trên lưới và mật độ cho phân cụm trong không gian dữ liệu số chiều cao. 3.7.1 STING: Một tiếp cận lưới thông tin thống kê STING (STatistical INformation Grid) (Wang, Yang và Munz 1997) là một tiếp cận đa phân giải dựa trên lưới. Trong tiếp cận này, miền không gian được chia thành các ô hình chữ nhật. Thường có một vài mức các ô hình chữ nhật tương ứng với các mức khác nhau của phân giải và các ô này thiết lập nên một cấu trúc phân cấp: mỗi ô tại một mức cao được phân chia để hình thành nên một số lượng các ô tại mức thấp hơn tiếp theo. Hơn nữa, các phần quan trọng của thông tin thống kê như mean, max, min, count, độ lệch chuẩn (standard deviation), v.v... đã kết hợp với các giá trị thuộc tính trong mỗi ô lưới được tính toán trước và được lưu trữ trước khi một truy vấn được submit tới một hệ thống. Hình 3.12 cho thấy một cấu trúc phân cấp đối với phân cụm STING. Hình 3.12: Một cấu trúc phân cấp đối với phân cụm STING -102- Tập các tham số dựa trên thống kê bao gồm: - tham số độc lập với thuộc tính n (count) và các tham số phụ thuộc thuộc tính m (mean), s (độ lệch chuẩn), min (minimum), max (maximum), và kiểu của phân bố mà giá trị thuộc tính trong ô tiếp theo như normal- bình thường, uniform-đồng nhất, exponential- số mũ, hay none (nếu phân bố không được biết). Khi dữ liệu được tải vào trong cơ sở dữ liệu, tập các tham số n, m, s, min, max của các ô mức đáy được tính toán trực tiếp từ dữ liệu. Giá trị của phân bố có thể được ấn định bởi người dùng nếu như kiểu phân bố không được biết trước hay có được bởi các kiểm định giả thuyết như kiểm định χ2. Các tham số của các ô mức cao hơn có thể dễ dàng được tính từ các tham số ở các ô mức thấp hơn. Kiểu phân bố của các ô mức cao hơn có thể được tính toán dựa trên các kiểu phân bố theo số đông của các ô tương đương mức thấp hơn của nó cộng với một ngưỡng xử lý lọc. Nếu như các phân bố của ô mức thấp hơn không giống nhau và thiếu ngưỡng kiểm định, kiểu phân bố của ô mức cao được đặt là "none". Thông tin thống kê có được sẽ rất hữu ích khi trả lời các truy vấn. Top- down là phương pháp trả lời truy vấn dựa trên lưới thông tin thống kê có thể khái quát như sau: Trước tiên nó có thể xác định một lớp để bắt đầu, nó thường bao gồm một số lượng nhỏ các ô. Đối với mỗi ô trong lớp hiện thời, ta tính toán khoảng tin cậy (hay phạm vi được đánh giá) khả năng mà ô này có liên quan tới truy vấn. Các ô không liên quan sẽ được gỡ bỏ khỏi xem xét sau này, và xử lý ở mức sâu hơn sẽ chỉ xem xét các ô liên quan. Xử lý này được lặp lại cho tới khi nó tiến đến lớp đáy. Tại thời điểm này, nếu đạt được truy vấn chỉ định thì sẽ trả lại các miền các ô liên quan đáp ứng yêu cầu của truy vấn; mặt khác, lấy ra dữ liệu nằm trong các ô liên quan, tiếp tục xử lý; và trả lại các kết quả thoả mãn yêu cầu của truy vấn. Tiếp cận này đưa ra một số thuận lợi so với các phương pháp phân cụm khác: (1) Tính toán dựa trên lưới là truy vấn độc lập, từ đó thông tin thống kê được lưu trữ trong mỗi ô đại diện cho thông tin tóm tắt của dữ liệu trong ô lưới, độc lập với truy vấn; (2) Cấu trúc lưới làm cho xử lý song song và cập nhật tăng -103- trưởng được thuận lợi; (3) Thuận lợi chủ yếu của phương pháp này hiệu quả của phương pháp: STING xuyên suốt dữ liệu một lần để tính toán các tham số thống kê của các ô, và do vậy độ phức tạp thời gian phát sinh các cụm là O(N), với N là tổng số các đối tượng. Sau khi phát sinh cấu trúc phân cấp này, thời gian xử lý truy vấn là O(G), với G là tổng số các ô lưới tại mức thấp nhất, nó thường nhỏ hơn nhiều so với N - tổng số các đối tượng. Tuy vậy, từ khi STING sử dụng tiếp cận đa phân giải để thực hiện phép phân tích cụm, chất lượng của phân cụm STING sẽ tuỳ thuộc vào độ sần (granularity) của mức thấp nhất của cấu trúc lưới. Nếu độ sần là rất tốt, chi phí xử lý về cơ bản sẽ tăng lên; tuy nhiên nếu như mức đáy của cấu trúc lưới quá thô, nó có thể giảm chất lượng tốt (độ mịn) của phép phân cụm. Hơn nữa, STING không xem xét mối quan hệ không gian giữa các ô con và các ô láng giềng của chúng để xây dựng các ô cha. Kết quả là hình dạng của các cụm kết quả là nhất quán (isothetic), tất cả các đường bao cụm theo chiều ngang hoặc theo chiều dọc, không có chiều chéo nào được dò thấy. Điều này có thể dẫn tới chất lượng và độ chính xác các cụm thấp hơn nhưng có thời gian xử lý nhanh hơn. 3.7.2 WaveCluster: Phân cụm sử dụng phép biến đổi wavelet WaveCluster (Sheikholeslami, Chatterjee và Zhang 1998) là một tiếp cận phân cụm đa phân giải, trước tiên tóm tắt dữ liệu bằng cách lợi dụng cấu trúc lưới đa phân giải trên không gian dữ liệu, sau đó biến đổi không gian đặc trưng gốc bằng phép biến đối wavelet và tìm các miền đông đúc trong không gian đã biến đổi. Trong tiếp cận này, mỗi ô lưới tóm tắt thông tin của một nhóm các điểm, thông tin tóm tắt này vừa đủ để đưa vào trong bộ nhớ chính cho phép biến đổi wavelet đa phân giải và phép phân tích cụm sau đó. Trong cấu trúc lưới, các thuộc tính số của một đối tượng không gian có thể được đại diện bởi một vectơ đặc trưng, tại đó mỗi phần tử của vectơ tương đương với một thuộc tính số, hay -104- đặc trưng. Cho một đối tượng với n thuộc tính số, vectơ đặc trưng sẽ là một điểm trong không gian đặc trưng n chiều. Phép biến đổi wavelet là một kỹ thuật xử lý tín hiệu, nó phân tích một tín hiệu vào trong các dải tần số con. Mô hình wavelet cũng làm việc trên các tín hiệu n chiều bằng cách áp dụng phép biến đổi 1 chiều n lần. Trong phép biến đổi wavelet, dữ liệu không gian được chuyển đổi vào trong miền tần số. Kết hợp với một hàm nòng cốt thích hợp cho kết quả trong một không gian biến đổi, tại đó các cụm tự nhiên trong dữ liệu trở nên dễ phân biệt hơn. Các cụm sau đó có thể được nhận biết bằng cách tìm ra các miền đông đúc trong vùng biến đổi. Phép biến đổi wavelet cung cấp các đặc trưng thú vị sau: Trước tiên nó cung cấp phân cụm không giám sát. Các lọc dạng nón làm nổi bật các miền mà tại đó các điểm phân cụm, nhưng đồng thời cũng có khuynh hướng ngăn chặn các thông tin yếu hơn trong đường bao của chúng. Do vậy, các miền đông đúc trong không gian đặc trưng gốc đóng vai trò như là các miền thu hút (attractor) đối với các điểm gần đó và như là miền hạn chế (inhibitor) đối với các điểm không đủ gần. Điều này nghĩa là các cụm trong dữ liệu tự động nổi bật lên và làm sạch các miền xung quanh chúng. Thứ hai, các lọc thông thấp được dùng trong phép biến đổi wavelet sẽ tự động loại bỏ các outlier. Hơn nữa, đặc tính đa phân giải của phép biến đổi wavelet có thể giúp dò các cụm tại các độ chính xác khác nhau. Cuối cùng, ứng dụng phép biến đổi wavelet là rất nhanh và việc xử lý như vậy có thể cũng được thực hiện song song. Giải thuật phân cụm dựa trên wavelet phác thảo như sau: Giải thuật 3.7.1: Giải thuật phân cụm dựa trên wavelet đối với phân cụm đa phân giải bằng phép biến đổi wavelet. Đầu vào: Các vectơ đặc trưng của các đối tượng dữ liệu đa chiều Đầu ra: Các đối tượng đã phân cụm Giải thuật: 1) Lượng tử hoá không gian đặc trưng, sau đó phân các đối tượng vào các -105- unit; 2) Áp dụng phép biến đổi wavelet trong không gian đặc trưng; 3) Tìm các phần hợp thành đã kết nối (các cụm) trong các dải con của không gian đặc trưng đã biến đổi tại các mức khác nhau; 4) Gắn các nhãn vào các unit; 5) Làm các bảng tra cứu và ánh xạ các đối tượng vào các cụm. Hình 3.13: Giải thuật phân cụm dựa trên wavelet Độ phức tạp tính toán của giải thuật này là O(N) với N là số các đối tượng trong cơ sở dữ liệu. Hình 3.14: Một mẫu không gian đặc trưng 2 chiều Ví dụ: Hình 3.14 (lấy từ Sheikholeslami, Chatterjee và Zhang (1998)) cho thấy một mẫu không gian đặc trưng 2 chiều, tại đó, mỗi điểm trong ảnh đại diện cho các giá trị đặc trưng của một đối tượng trong các tập dữ liệu không gian. Hình 3.15 (lấy từ Sheikholeslami, Chatterjee và Zhang (1998)) cho thấy kết quả của các phép biến đổi wavelet tại các tỷ lệ khác nhau, từ mịn (tỷ lệ 1) cho tới thô (tỷ lệ 3). Tại mỗi mức, dải con LL (bình thường) chỉ ra tại cung phần tư phía trên bên trái, dải con LH (các cạnh nằm ngang) chỉ ra tại cung phần tư phía trên bên phải và dải con HL (các cạnh nằm dọc) chỉ ra tại cung phần tư phía dưới bên trái và dải con HH (các góc) chỉ ra tại cung phần tư phía dưới bên phải. WaveCluster là một giải thuật dựa trên mật độ và lưới. WaveCluster thích hợp với tất cả các yêu cầu của các giải thuật phân cụm tốt: nó xử lý các tập dữ liệu lớn một cách hiệu quả, tìm ra các cụm với hình dạng tuỳ ý, thành công trong việc xử lý các outlier, và không nhạy cảm đối với trật tự đầu vào. So với -106- BIRCH, CLARANS và DBSCAN, WaveCluster làm tốt hơn các phương pháp này ở cả hiệu suất và chất lượng phân cụm. Hình 3.15: Đa phân giải của không gian đặc trưng trong hình 3.14. a) tỷ lệ 1; b) tỷ lệ 2; c) tỷ lệ 3 3.7.3 CLIQUE: Phân cụm không gian số chiều cao Một giải thuật phân cụm khác, CLIQUE, Agrawal et al. (1998), tích hợp phương pháp phân cụm dựa trên lưới và mật độ theo một cách khác. Nó rất hữu ích cho phân cụm dữ liệu với số chiều cao trong các cơ sở dữ liệu lớn. Cho trước một tập lớn các điểm dữ liệu đa chiều, các điểm dữ liệu này thường nằm không đồng nhất trong không gian dữ liệu. Phân cụm dữ liệu nhận biết các vị trí thưa thớt hay đông đúc, do vậy tìm ra toàn bộ các mẫu phân bố của tập dữ liệu. Một unit là dày đặc nếu như phần nhỏ của các điểm dữ liệu chứa trong unit vượt quá một tham số mô hình đầu vào. Một cụm là một tập lớn nhất các unit dày đặc có kết nối. CLIQUE phân chia không gian dữ liệu m chiều thành các unit hình chữ nhật không chồng lên nhau, nhận biết các unit dày đặc, và tìm ra các cụm trong toàn bộ các không gian con của không gian dữ liệu gốc, sử dụng phương pháp phát sinh candidate (ứng cử) giống với giải thuật Apriori cho khai phá các luật kết hợp. CLIQUE thực hiện phân cụm đa chiều theo hai bước: Trước tiên, CLIQUE nhận biết các cụm bằng cách xác định các unit dày đặc trong toàn bộ các không gian con của các interest và sau đó xác định các unit dày đặc có kết nối trong toàn bộ các không gian con của các interest. -107- Một heuristic quan trọng mà CLIQUE thông qua đó là nguyên lý Apriori trong phân cụm số chiều cao: Nếu một unit k chiều là dày đặc thì các hình chiếu (project) của nó trong không gian (k-1) chiều cũng vậy. Đó là nếu bất kỳ unit thứ (k-1) không phải là dày đặc, thì unit thứ k tương ứng của nó không phải là một unit ứng cử dày đặc (candidate dense). Bởi vậy, tất cả các unit dày đặc k chiều ứng cử có thể được sinh từ các unit dày đặc (k-1) chiều. Thứ hai, CLIQUE sinh ra mô tả tối thiểu cho các cụm như sau: Trước tiên nó xác định các miền tối đa phủ một cụm các unit dày đặc có kết nối cho mỗi cụm và sau đó xác định phủ tối thiểu cho mỗi cụm. CLIQUE tự động tìm các không gian con số chiều cao nhất để các cụm mật độ cao tồn tại trong các không gian con này. Nó không nhạy cảm với trật tự các bản ghi trong đầu vào và không đoán được phân bố dữ liệu tiêu chuẩn. Nó tỷ lệ tuyến tính với kích thước của đầu vào và có một khả năng mở rộng tốt như số các chiều trong dữ liệu được tăng lên. Tuy nhiên, độ chính xác của kết quả phân cụm có thể bị suy giảm tại phụ phí bởi tính đơn giản của phương pháp. 3.8 Kết luận Chương này đề cập tới các phương pháp phân cụm truyền thống và các cải tiến phương pháp phân cụm truyền thống. Ngoài ra chương này còn đề cập tới khái niệm độ không tương đồng (hay tương đồng) của các đối tượng. Qua đó ta có thể thấy được khả năng phân cụm của từng phương pháp, khả năng áp dụng vào các bài toán thực tiễn. -108- CHƯƠNG 4: CÀI ĐẶT THỬ NGHIỆM Chương này đưa ra kết quả cài đặt thử nghiệm bằng các giải thuật Kmeans và Kmedoids trên các bộ dữ liệu của UCI và đánh giá kết quả thực nghiệm. 4.1 Thiết kế tổng thể Chương trình gồm các khối chức năng chính sau: - Khối chức năng tiền xử lý - Khối chức năng phân cụm 4.1.1 Khối chức năng tiền xử lý Nhiệm vụ của khối chức năng này là đọc dữ liệu, xác định số mẫu, số thuộc tính, số lớp, các giá trị thuộc tính của từng mẫu dữ liệu. 4.1.2 Khối chức năng phân cụm Khối chức năng này tiến hành phân cụm các mẫu dữ liệu. Dữ liệu được học không giám sát (unsupervised learning) theo hai giải thuật khác nhau: Kmeans và Kmedoids. Cuối cùng gắn nhãn lớp cho các cụm. Sau khi gắn nhãn lớp cho các cụm sẽ tiến hành xác định hiệu quả phân lớp, phân loại. 4.2 Chuẩn bị dữ liệu Dữ liệu đầu vào chương trình là các tệp văn bản và được chia thành hai loại: - Tệp định dạng dữ liệu (*.names): Định nghĩa tên các lớp, tên các thuộc tính, các giá trị của từng thuộc tính, kiểu thuộc tính. - Tệp mẫu dữ liệu (*.data): Gồm các mẫu dữ liệu chứa đầy đủ thông tin giá trị các thuộc tính và giá trị lớp. 4.2.1 Tệp định dạng dữ liệu - Dòng 1: liệt kê các giá trị lớp. Các giá trị này cách nhau bởi dấu phẩy "," và kết thúc bằng dấu chấm ".". - Từ dòng 2: + Mỗi mẫu một dòng -109- + Bắt đầu bằng tên một thuộc tính, dấu ":", sau đó là các giá trị rời rạc của thuộc tính (nếu thuộc tính là xác thực hay nhị phân) hoặc kiểu thuộc tính (nếu thuộc tính có kiểu liên tục). - Tất cả các phần chú thích được đặt sau dấu "|" Bảng 4.1: Một ví dụ tệp định dạng dữ liệu *.names 1, 2, 3. 1: continuous. 2: 1, 2, 3, 4. |categorical 3: continuous. 4: 0, 1. |binary 4.2.2 Tệp mẫu dữ liệu Mỗi mẫu một dòng. Các giá trị thuộc tính của mẫu ghi trước, cuối cùng là giá trị lớp. Mỗi một giá trị này cách nhau bởi dấu ",". Bảng 4.2: Một ví dụ tệp dữ liệu *.data 4.2.3 Nguồn dữ liệu Trong khuôn khổ luận văn, dữ liệu được lấy từ địa chỉ web site: - ftp://ftp.ics.uci.edu/pub/ 4.3 Thiết kế chương trình Với các khối chức năng và dữ liệu ở trên, chương trình được thiết kế như sau: 0,0,1,0,0,1,1,1,1,0,0,1,0,1,0,1,4 0,0,0,1,0,1,1,1,1,1,0,1,0,1,0,1,1 0,1,1,0,1,0,0,0,1,1,0,0,2,1,1,0,2 0,1,1,0,1,1,0,0,1,1,0,0,2,1,0,0,2 1,0,0,1,0,0,0,1,1,1,0,0,4,1,0,1,1 0,1,1,0,1,0,0,0,1,1,0,0,2,1,0,1,2 -110- Hình 4.1: Thiết kế chương trình 4.4 Kết quả thực nghiệm và đánh giá 4.4.1 Các bước tiến hành thực nghiệm - Phân cụm dữ liệu bằng giải thuật Kmeans và Kmedoids - Gắn nhãn cho các cụm, đánh giá, so sánh hiệu quả gắn nhãn giữa hai giải thuật trên cho các bộ số liệu UCI (chỉ dùng các dữ liệu có thuộc tính liên tục). - Gắn nhãn cho các cụm, đánh giá hiệu quả gắn nhãn cho dữ liệu có thuộc tính hỗn hợp - Cải tiến hiệu quả phân lớp - So sánh chất lượng phân loại với chương trình See5. Chương trình See5 (phiên bản 2.03) là công cụ sử dụng kỹ thuật cây quyết định với giải thuật C5.0 dùng để phân loại dữ liệu được viết bởi Ross Quinlan. Tính hiệu quả của chương trình này đã được nhiều người công nhận. Vì thế, luận văn đã sử dụng nó làm công cụ để so sánh với các kết quả phân loại đã thực hiện. Hạn chế của See5 (phiên bản 2.03) chỉ dùng được tối đa 400 mẫu dữ liệu. Tệp định dạng dữ liệu Module GetNames Tệp mẫu dữ liệu Module GetData Các thông tin: - Số lớp, tên các lớp - Số thuộc tính, tên thuộc tính, kiểu thuộc tính hay các giá trị rời rạc của thuộc tính - Số mẫu, giá trị các thuộc tính và tên lớp của mỗi mẫu Các module phân cụm Phân loại Phân lớp Hiển thị kết quả Kết quả phân lớp, phân loại Cải tiến phân lớp -111- 4.4.2 Thực nghiệm Dưới đây là các kết quả đạt được: 4.4.2.1 Bài toán phân lớp: được thực hiện với số lượng các cụm là K = 2, 4, 6,8,10, 16. (Kmeans: ma; Kmedoids: md) Bảng 4.3: Kết quả thí nghiệm phân lớp Số mẫu phân lớp đúng K=2 K=4 K=6 K=8 K=10 K=16 Tên DL Số mẫu ma md ma md ma md ma md ma md ma md Brea 500 328 480 485 481 484 481 481 482 481 482 481 482 Haber 306 225 225 229 226 230 231 228 232 233 234 237 240 Iris 150 100 51 126 53 126 55 125 57 121 59 142 65 Pima 768 532 504 539 537 541 528 525 554 554 558 558 561 Glass 214 78 82 105 84 117 86 117 88 125 90 140 96 Wine 178 107 72 173 80 169 85 168 84 166 87 173 93 Balan 625 293 369 407 423 448 441 503 451 438 453 483 459 So sánh Kmeans và Kmedoids 0 20 40 60 80 100 120 bre as tca nc el ha be rm an iris pim a gla ss win e ba lan ce Các bộ dữ liệu P hầ n tr ăm p hâ n lớ p đú ng Kmeans Kmedoids Hình 4.2: Biểu đồ so sánh Kmeans và Kmedoids trong bài toán phân lớp với K=10 Biểu đồ trên cho thấy với dữ liệu kiểu liên tục khả năng phân lớp của Kmedoids trong bộ dữ liệu UCI thường thấp hơn so với Kmeans bởi điểm đại diện trong Kmedoids là một điểm đối tượng gần tâm cụm, tâm cụm trong -112- Kmeans là giá trị trung bình của các phần tử trong cụm. Nếu như dữ liệu ít nhiễu thì Kmeans sẽ cho kết quả hiệu quả hơn Kmedoids, trong trường hợp ngược lại, nếu một nhiễu với giá trị cực lớn, về cơ bản nó sẽ bóp méo phân bố dữ liệu nếu như dùng Kmeans, lúc này dùng Kmeadoids sẽ hiệu quả hơn. Theo biểu đồ so sánh ở trên ta nhận thấy dữ liệu ít nhiễu. Tuy nhiên, phép đo độ tương đồng của các đối tượng trong Kmedoids dường như chưa được hiệu quả lắm, do vậy phần trăm phân lớp đúng chưa được cao. Để cải thiện độ chính xác phân lớp, luận văn đưa ra phương pháp sau: Với mỗi mẫu bị phân lớp sai trong mỗi cụm, ta sẽ đưa nó vào cụm thích hợp (giả sử là cụm A) nếu thoả mãn điều kiện: + Khoảng cách từ nó tới cụm hiện thời bằng khoảng cách tới cụm A + Nhãn lớp cụm A giống nhãn lớp của mẫu đó + Nếu thêm mẫu này vào cụm A, tâm cụm không thay đổi (hoặc thay đổi một khoảng cách epsilon đủ bé cho trước). Thực nghiệm cho thấy độ chính xác phân lớp đã được tăng lên. Ví dụ ở một số bộ dữ liệu sau: (Cũ: C; Mới: M) Bảng 4.4: Kết quả cải thiện chất lượng phân lớp Tên DL Iris Wine Balance Haberman C 53 80 423 226 K=4 M 54 89 447 226 C 55 85 441 231 K=6 M 57 85 459 231 C 57 84 451 232 K=8 M 61 86 475 233 C 59 87 453 234 K=10 M 65 90 477 237 C 65 93 459 240 K=16 M 77 102 483 249 C 69 97 463 244 K=20 M 85 110 487 257 C 74 102 468 249 K=25 M 95 120 492 267 -113- 4.4.2.2 Bài toán phân loại Bảng 4.5: Kết quả thí nghiệm phân loại của Kmeans và Kmedoids Số mẫu phân loại đúng Tỷ lệ phân loại đúng (%) Tên dữ liệu Số mẫu ma md ma md Breastcancel 500 318 480 63.6 96 Haberman 306 179 115 58.4967 50.6536 Iris 150 125 52 83.3333 34.6667 Pima 768 532 504 69.2708 65.625 Glass 214 93 72 43.4579 33.6449 Soybean 47 32 22 68.0851 46.8085 Wine 178 172 70 96.6292 39.3258 Balance 625 313 336 50.08 53.76 So sánh Kmeans và Kmedoids 0 20 40 60 80 100 120 bre as tca nc el ha be rm an iris pim a gla ss so yb ea n win e ba lan ce Các bộ dữ liệu Ph ần tr ăm p hâ n lo ại đ ún g Kmeans Kmedoids Hình 4.3: Biểu đồ so sánh Kmeans và Kmedoids trong bài toán phân loại Bảng 4.6: Kết quả thí nghiệm phân loại của Kmedoids và See5 Số mẫu phân loại đúng Tỷ lệ phân loại đúng (%) Tên dữ liệu Số mẫu See5 md See5 md Breastcancel 400 391 344 97.75 86 Haberman 306 236 115 77.12418 50.6536 -114- Iris 150 106 52 83.3333 34.6667 Pima 400 307 262 76.75 65.5 Car 298 289 202 72.25 67.7852 Balance 400 336 238 84 64.8501 So sánh Kmedoids và See5 0 20 40 60 80 100 120 Br ea stc an ce l Ha be rm an Iris Pim a Ca r Ba lan ce Các bộ dữ liệu P hầ n tră m p hâ n lo ại đ ún g Kmedoids See5 Hình 4.4: Biểu đồ so sánh Kmedoids và See5 trong bài toán phân loại Theo biểu đồ trên ta nhận thấy hiệu quả phân loại của See5 tốt hơn bởi nó có một mô hình phân loại dạng cây thực sự hiệu quả, mô hình này đã hạn chế được những nhánh phản ánh nhiễu nên chất lượng phân loại cao. Còn Kmedoids tuy đã xử lý được dữ liệu kiểu hỗn hợp nhưng chất lượng tính độ tương đồng của các đối tượng chưa cao nên khả năng phân loại kém hơn See5. 4.5 Kết luận Như vậy, sau khi tiến hành thực nghiệm trên một số bộ dữ liệu của UCI ta nhận thấy kết quả phân lớp, phân loại các dữ liệu có thuộc tính liên tục của Kmeans tốt hơn so với Kmedoids. Với dữ liệu có thuộc tính hỗn hợp, Kmeans không xử lý được. Kmedoids với phương pháp tính độ tương đồng giữa hai mẫu do Ducker (1965) đề xuất, Kaufman và Rousseeuw cải tiến (1990) đã xử lý được dữ liệu này với độ chính xác trên trung bình và chi phí tính toán là O(k(n-k)2). -115- Đối với các giá trị n và k lớn, chi phí như vậy sẽ cao. Vậy nên việc cải tiến độ chính xác và tốc độ tính toán là hướng phát triển sau này. -116- KẾT LUẬN Luận văn tập trung nghiên cứu lý thuyết và áp dụng một số kỹ thuật khai phá dữ liệu trên bộ dữ liệu của UCI. Đây là bước khởi đầu trong quá trình tìm hiểu những vấn đề cần quan tâm khi giải quyết các bài toán khai phá dữ liệu trong thực tế. Trong khuôn khổ luận văn chưa áp dụng cụ thể vào một CSDL thực tế nào, mới chỉ dừng lại trên bộ dữ liệu UCI nên kết quả thực nghiệm chưa mang ý nghĩa thực tế. Tuy nhiên cũng có một số kết quả ban đầu là phát hiện tri thức từ bộ dữ liệu này. Những kết quả mà luận văn đã thực hiện: + Về lý thuyết, luận văn tập trung tìm hiểu các kỹ thuật phân loại, phân cụm truyền thống và các phương pháp cải tiến chúng. + Về thực tiễn, luận văn đã đưa ra các kết quả cài đặt thử nghiệm trên bộ dữ liệu UCI bao gồm các kết quả phân loại, phân lớp, cải tiến chất lượng phân lớp. Qua quá trình thực nghiệm và nghiên cứu lý thuyết có thể đưa ra một số kết luận như sau: • Mỗi một giải thuật phân loại, phân cụm áp dụng cho một số mục tiêu và kiểu dữ liệu nhất định. • Mỗi giải thuật có một mức độ chính xác riêng và khả năng thực hiện trên từng kích thước dữ liệu là khác nhau. Điều này còn tuỳ thuộc vào cách thức tổ chức dữ liệu ở bộ nhớ chính, bộ nhớ ngoài... của các giải thuật. • Khai phá dữ liệu sẽ hiệu quả hơn khi bước tiền xử lý, lựa chọn thuộc tính, mô hình được giải quyết tốt. Với những gì mà luận văn đã thực hiện, các hướng phát triển sau này của luận văn như sau: -117- • Độ chính xác phân lớp, phân loại phụ thuộc vào nhiều yếu tố như chất lượng dữ liệu, thuật toán cài đặt, phương pháp tính độ tương đồng của các đối tượng dữ liệu. Ngoài ra, các giá trị khuyết hay các thuộc tính dư thừa cũng phần nào làm ảnh hưởng đến chúng. Vì vậy hướng phát triển sau này là xử lý các giá trị khuyết, phát hiện và loại bỏ các thuộc tính dư thừa, cải tiến phương pháp tính độ tương đồng,... nhằm nâng cao chất lượng và tốc độ phân lớp, phân loại. • Tiến hành cài đặt và tiếp tục nghiên cứu nhiều kỹ thuật khai phá dữ liệu hơn nữa, đặc biệt là triển khai giải quyết các bài toán cụ thể trong thực tế. -118- TÀI LIỆU THAM KHẢO 1. Anil K. Jain and Richard C. Dubes (1988), Algorithms for clustering data, Prentice-Hall, Inc., USA. 2. Ho Tu Bao (1998), Introduction to knowledge discovery and data mining. 3. Jiawei Han and Micheline Kambel (2000), Data Mining: Concepts and Techniques, Morgan Kaufmann Publishers. 4. Joydeep Ghosh (2003), Scalable Clustering, Chapter 10, pp. 247-278, Formal version appears in: The Handbook of Data Mining, Nong Ye (Ed). 5. J.Ross Quinlan (1993), C4.5: Programs for Machine Learning, Morgan Kaufmann Publishers. 6. Mercer (2003), Clustering large datasets, Linacre College. 7. Pavel Berkhin, Survey of Clustering Data Mining Techniques. Accrue Software, Inc., San Jose.

Các file đính kèm theo tài liệu này:

  • pdf000000208339R.pdf
Tài liệu liên quan