Tải bản đầy đủ (.pdf) (120 trang)

Phân lớp dữ liệu bằng cây quyết định mờ dựa trên đại số gia tử (Luận án tiến sĩ)

Bạn đang xem bản rút gọn của tài liệu. Xem và tải ngay bản đầy đủ của tài liệu tại đây (964.84 KB, 120 trang )

ĐẠI HỌC HUẾ
TRƢỜNG ĐẠI HỌC KHOA HỌC

LÊ VĂN TƢỜNG LÂN

PHÂN LỚP DỮ LIỆU BẰNG CÂY QUYẾT ĐỊNH MỜ
DỰA TRÊN ĐẠI SỐ GIA TỬ

CHUYÊN NGÀNH: KHOA HỌC MÁY TÍNH
MÃ SỐ: 62.48.01.01

LUẬN ÁN TIẾN SĨ KHOA HỌC MÁY TÍNH
Ngƣời hƣớng dẫn khoa học:
1. PGS.TS. Nguyễn Mậu Hân
2. TS. Nguyễn Công Hào

HUẾ - NĂM 2018


Phân lớp dữ liệu bằng cây quyết định mờ dựa trên đại số gia tử

LỜI CAM ĐOAN
Tôi xin cam đoan đây là công trình nghiên cứu do tôi thực hiện, dưới sự
hướng dẫn khoa học của PGS.TS. Nguyễn Mậu Hân và TS. Nguyễn Công Hào.
Các số liệu và kết quả trình bày trong luận án là trung thực, chưa được công bố
bởi bất kỳ tác giả nào hay ở bất kỳ công trình nào khác.

ii


Phân lớp dữ liệu bằng cây quyết định mờ dựa trên đại số gia tử



LỜI CẢM ƠN
Trong quá trình thực hiện đề tài “Phân lớp dữ liệu bằng cây quyết định
mờ dựa trên đại số gia tử”, tôi đã nhận được rất nhiều sự giúp đỡ, tạo điều kiện
của tập thể Ban giám hiệu, Phòng Đào tạo Sau đại học, Khoa Công nghệ thông
tin và các phòng chức năng của Trường Đại học Khoa học, Đại học Huế. Tôi xin
bày tỏ lòng cảm ơn chân thành về sự giúp đỡ quý báu đó.
Tôi xin được bày tỏ lòng biết ơn sâu sắc tới PGS.TS. Nguyễn Mậu Hân
và TS. Nguyễn Công Hào là những thầy giáo trực tiếp hướng dẫn và chỉ bảo cho
tôi hoàn thành luận án.
Tôi xin chân thành cảm ơn gia đình, bạn bè và đồng nghiệp đã động viên,
khích lệ, tạo điều kiện và giúp đỡ tôi trong suốt quá trình thực hiện và hoàn
thành luận án này.
TÁC GIẢ LUẬN ÁN
Nghiên cứu sinh

Lê Văn Tƣờng Lân

iii


Phân lớp dữ liệu bằng cây quyết định mờ dựa trên đại số gia tử

MỤC LỤC

Lời cam đoan ...............................................................................................................ii
Lời cảm ơn ............................................................................................................... iii
Danh mục các từ viết tắt ............................................................................................vii
Danh mục các ký hiệu ............................................................................................. viii
Danh mục các bảng biểu ............................................................................................ ix

Danh mục các hình vẽ ................................................................................................. x
Mở đầu ....................................................................................................................... 1
Chƣơng 1. Cơ sở lý thuyết về đại số gia tử và tổng quan phân lớp dữ liệu bằng
cây quyết định ................................................................................................. 10
1.1. Lý thuyết tập mờ ...................................................................................... 10
1.1.1.Tập mờ và thông tin không chắc chắn ............................................ 10
1.1.2. Biến ngôn ngữ................................................................................ 12
1.2. Đại số gia tử............................................................................................... 14
1.2.1. Khái niệm đại số gia tử .................................................................. 14
1.2.2. Các hàm đo của đại số gia tử ......................................................... 16
1.2.3. Một số tính chất của các hàm đo ................................................... 17
1.2.4. Khoảng mờ và các mối tương quan của khoảng mờ ..................... 20
1.3. Phân lớp dữ liệu bằng cây quyết định ...................................................... 21
1.3.1. Bài toán phân lớp trong khai phá dữ liệu ...................................... 21
1.3.2. Cây quyết định ............................................................................... 23
1.3.3. Lợi ích thông tin và tỷ lệ lợi ích thông tin ..................................... 24
1.3.4. Vấn đề quá khớp trong mô hình cây quyết định .......................... 26
1.4. Phân lớp dữ liệu bằng cây quyết định mờ ................................................. 28
1.4.1. Các hạn chế của phân lớp dữ liệu bằng cây quyết định rõ ............ 28
1.4.2. Bài toán phân lớp dữ liệu bằng cây quyết định mờ ....................... 29

iv


Phân lớp dữ liệu bằng cây quyết định mờ dựa trên đại số gia tử
1.4.3. Một số vấn đề của bài toán phân lớp dữ liệu bằng cây quyết định
mờ .......................................................................................................... 31
1.5. Kết luận chương 1 ..................................................................................... 35
Chƣơng 2. Phân lớp dữ liệu bằng cây quyết định mờ theo phƣơng pháp đối
sánh điểm mờ dựa trên đại số gia tử ............................................................ 36

2.1. Giới thiệu ................................................................................................... 36
2.2. Phương pháp chọn tập mẫu huấn luyện đặc trưng cho bài toán học phân
lớp dữ liệu bằng cây quyết định ..................................................................... 38
2.2.1. Tính chất thuộc tính của tập mẫu huấn luyện đối với quá trình
huấn luyện ................................................................................................ 40
2.2.2. Ảnh hưởng từ phụ thuộc hàm giữa các thuộc tính trong tập huấn
luyện ........................................................................................................ 41
2.3. Phân lớp dữ liệu bằng cây quyết định dựa trên ngưỡng miền trị thuộc
tính .................................................................................................................. 44
2.3.1. Cơ sở của việc xác định ngưỡng cho quá trình học phân lớp........ 44
2.3.2. Thuật toán MixC4.5 dựa trên ngưỡng miền trị thuộc tính .......... 44
2.3.3. Cài đặt thử nghiệm và đánh giá thuật toán MixC4.5.................... 47
2.4. Phân lớp dữ liệu bằng cây quyết định mờ dựa trên đối sánh điểm mờ .... 53
2.4.1. Xây dựng mô hình học phân lớp dữ liệu bằng cây quyết định mờ 53
2.4.2. Vấn đề với tập mẫu huấn luyện không thuần nhất ........................ 55
2.4.3. Một cách định lượng giá trị ngôn ngữ ngoại lai trong tập mẫu huấn
luyện ........................................................................................................ 58
2.4.4. Thuật toán học bằng cây quyết định mờ FMixC4.5 dựa trên đối
sánh điểm mờ ........................................................................................... 63
2.4.5. Cài đặt thử nghiệm và đánh giá thuật toán FMixC4.5 ................. 64
2.5. Kết luận Chương 2 .................................................................................... 67
Chƣơng 3. Phƣơng pháp huấn luyện cây quyết định mờ cho bài toán phân lớp
dữ liệu dựa trên đối sánh khoảng mờ ........................................................... 69
3.1. Giới thiệu ................................................................................................... 69
3.2. Phương pháp đối sánh giá trị khoảng trên thuộc tính mờ ....................... 70
3.2.1. Xây dựng cách thức đối sánh giá trị khoảng dựa trên đại số gia tử70
v


Phân lớp dữ liệu bằng cây quyết định mờ dựa trên đại số gia tử

3.2.2. Phương pháp định lượng khoảng mờ khi chưa biết miền trị MIN,
MAX của các thuộc tính mờ .................................................................... 72
3.3. Phân lớp dữ liệu bằng cây quyết định mờ dựa trên cách thức đối sánh
khoảng mờ ........................................................................................................ 77
3.3.1. Thuật toán phân lớp dữ liệu bằng cây quyết định mờ HAC4.5 dựa
trên đối sánh khoảng mờ .......................................................................... 77
3.3.2. Cài đặt thử nghiệm và đánh giá thuật toán HAC4.5 .................... 80
3.4. Xây dựng khái niệm khoảng mờ lớn nhất và phương pháp học nhằm tối
ưu mô hình cây quyết định mờ ........................................................................ 85
3.4.1. Phát biểu bài toán học phân lớp dữ liệu bằng cây quyết định mờ
theo hướng đa mục tiêu ........................................................................... 85
3.4.2. Khái niệm khoảng mờ lớn nhất và cách thức tính khoảng mờ lớn
nhất cho các thuộc tính mờ ...................................................................... 86
3.4.3. Thuật toán phân lớp dữ liệu bằng cây quyết định mờ HAC4.5*
theo cách tiếp cận khoảng mờ lớn nhất ................................................. 88
3.4.4. Cài đặt thử nghiệm và đánh giá thuật toán HAC4.5* .................. 92
3.5. Kết luận chương 3 ..................................................................................... 96
Kết luận .................................................................................................................... 98
Danh mục các công trình khoa học của tác giả liên quan đến luận án ............ 100
Tài liệu tham khảo ................................................................................................ 101

vi


Phân lớp dữ liệu bằng cây quyết định mờ dựa trên đại số gia tử

DANH MỤC CÁC TỪ VIẾT TẮT
Viết tắt

Viết đầy đủ


ĐSGT

Đại số gia tử

GĐ1

Giai đoạn 1

GĐ2

Giai đoạn 2

CART

Classification and Regression Trees

Dom

Domain

Gain

Gain Information

GainRatio

Gain Information Ratio

HA


Hedge Algebra

LDT

Linguistic Decision Tree

Sim

Similar

SplitInfo

Split Information

vii


Phân lớp dữ liệu bằng cây quyết định mờ dựa trên đại số gia tử

DANH MỤC CÁC KÝ HIỆU
Diễn giải ý nghĩa

Ký hiệu
Ai

Thuộc tính Ai

D


Tập mẫu huấn luyện

𝐷𝐴𝑖
f

Tập các giá trị kinh điển của Ai
Ánh xạ

fh(S)

Hàm đánh giá tính hiệu quả của cây

fn(S)

Hàm đánh giá tính đơn giản của cây

Ik

𝐿𝐷𝐴𝑖
O(log n)
µA(v)
S
sim(x, y)

Tập tất cả các khoảng mờ mức k của các giá trị ngôn ngữ

Tập các giá trị ngôn ngữ của Ai
Độ phức tạp logarit của thuật toán
Hàm định lượng của giá trị ngôn ngữ A (đo độ thuộc của v)
Cây quyết định

Mức độ gần nhau của x và y

v

Giá trị định lượng theo điểm của giá trị ngôn ngữ

X

Đại số gia tử

Y

Thuộc tính phân lớp

viii


Phân lớp dữ liệu bằng cây quyết định mờ dựa trên đại số gia tử

DANH MỤC CÁC BẢNG BIỂU
Bảng 2.1. Bảng dữ liệu DIEUTRA .......................................................................... 38
Bảng 2.2. Thông số thuộc tính tập huấn luyện chọn từ cơ sở dữ liệu Northwind ... 48
Bảng 2.3. Bảng so sánh kết quả huấn luyện của thuật toán MixC4.5 với 1000 mẫu
trên cơ sở dữ liệu Northwind ................................................................... 49
Bảng 2.4. Bảng so sánh kết quả huấn luyện của thuật toán MixC4.5 với 1500 mẫu
trên cơ sở dữ liệu Northwind ................................................................... 49
Bảng 2.5. Thông số thuộc tính tập huấn luyện từ cơ sở dữ liệu Mushroom ............ 50
Bảng 2.6. Bảng so sánh kết quả của thuật toán MixC4.5 với 5000 mẫu huấn luyện
trên cơ sở dữ liệu có chứa thuộc tính mờ Mushroom ............................. 51
Bảng 2.7. Bảng dữ liệu DIEUTRA có thuộc tính Lương chứa dữ liệu rõ mà mờ ... 55

Bảng 2.8. Bảng so sánh kết quả kiểm tra độ chính xác của thuật toán FMixC4.5

trên cơ sở dữ liệu có chứa thuộc tính mờ Mushroom........................... 65
Bảng 2.9. Bảng so sánh thời gian kiểm tra của thuật toán FMixC4.5 trên cơ sở

dữ liệu có chứa thuộc tính mờ Mushroom ............................................ 65
Bảng 3.1. Tập mẫu huấn luyện chứa thuộc tính Lương không thuần nhất, chưa xác
định Min-Max ......................................................................................... 75
Bảng 3.2. Bảng so sánh kết quả với 5000 mẫu huấn luyện của thuật toán C4.5,
FMixC4.5 và HAC4.5 trên cơ sở dữ liệu có chứa thuộc tính mờ
Mushroom ............................................................................................... 80
Bảng 3.3. Thông số thuộc tính tập huấn luyện từ cơ sở dữ liệu Aldult ................... 82
Bảng 3.4. Bảng so sánh kết quả với 20000 mẫu huấn luyện của thuật toán C4.5,
FMixC4.5 và HAC4.5 trên cơ sở dữ liệu có chứa thuộc tính mờ Adult 82
Bảng 3.5. Đối sách thời gian kiểm tra từ 1000 đến 5000 mẫu trên dữ liệu Adult ... 83
Bảng 3.6. Đối sánh kết quả huấn luyện trên dữ liệu Adult ...................................... 92
Bảng 3.7. Tỷ lệ kiểm tra của HAC4.5* trên dữ liệu Adult ...................................... 93
Bảng 3.8. Kết quả dự đoán trung bình của các thuật toán FMixC4.5, HAC4.5 và

HAC4.5* đối với các cách tiếp cận khác .............................................. 94

ix


Phân lớp dữ liệu bằng cây quyết định mờ dựa trên đại số gia tử

DANH MỤC CÁC HÌNH VẼ
Hình 1.1. Tính mờ của phần tử sinh lớn .................................................................. 19
Hình 1.2. Mối tương quan I(y)  I(x) ...................................................................... 21
Hình 1.3. Mối tương quan của y được đối sánh theo x, khi I(y)  I(x) ................... 21

Hình 1.4. Mối tương quan của y được đối sánh theo x1, khi I(y)  I(x) .................. 21
Hình 1.5. Minh họa hình học về chỉ số Gini............................................................ 26
Hình 1.6. Vấn đề “quá khớp” trong cây quyết định ................................................ 27
Hình 1.7. Điểm phân chia đa phân theo giá trị ngôn ngữ tại thuộc tính mờ ........... 32
Hình 1.8. Điểm phân chia nhị phân theo giá trị ngôn ngữ hoặc giá trị số tại thuộc
tính mờ, dựa trên phương pháp định lượng ngữ nghĩa theo điểm trong
ĐSGT ...................................................................................................... 34
Hình 2.1. Cây quyết định được tạo từ tập mẫu huấn luyện M1 .............................. 39
Hình 2.2. Cây quyết định không có hiệu quả được tạo từ tập huấn luyện M2 ........ 39
Hình 2.3. So sánh thời gian huấn luyện của MixC4.5 với các thuật toán khác ....... 50
Hình 2.4. So sánh số nút trên cây kết quả của MixC4.5 với các thuật toán khác.... 52
Hình 2.5. So sánh tỷ lệ đúng trên kết quả của MixC4.5 với các thuật toán khác .... 52
Hình 2.6. Mô hình cho quá trình học phân lớp mờ ................................................. 53
Hình 2.7. Mô hình đề nghị cho việc học phân lớp bằng cây quyết định mờ ........... 54
Hình 2.8. Cây quyết định kết quả “sai lệch” khi tập mẫu huấn luyện bị loại bỏ giá
trị ngôn ngữ .............................................................................................. 56
Hình 2.9. Tính mờ của thuộc tính Lương khi chưa xét các giá trị ngoại lai ............ 62
Hình 2.10. So sánh thời gian huấn luyện với 5000 mẫu Mushroom của FMixC4.5
với các thuật toán khác ............................................................................ 66
Hình 2.11. So sánh thời gian kiểm tra với 2000 mẫu Mushroom của FMixC4.5 với
các thuật toán khác................................................................................... 66
Hình 2.12. So sánh tỷ lệ đúng trên cây kết quả của FMixC4.5 với các thuật toán
khác .......................................................................................................... 67
Hình 3.1. So sánh thời gian huấn luyện trên mẫu 5000 mẫu của Mushroom.......... 81

x


Phân lớp dữ liệu bằng cây quyết định mờ dựa trên đại số gia tử
Hình 3.2. So sánh tỷ lệ kiểm tra từ 100 đến 2000 trên mẫu dữ liệu Mushroom ..... 81

Hình 3.3. So sánh thời gian huấn luyện với 20000 mẫu của Adult ......................... 83
Hình 3.4. So sánh tỷ lệ kiểm tra từ 1000 đến 5000 trên mẫu dữ liệu của Adult ..... 83
Hình 3.5. So sánh thời gian kiểm tra từ 1000 đến 5000 trên dữ liệu Adult............. 84
Hình 3.6. So sánh thời gian huấn luyện và số nút của cây kết quả trên Adult ........ 93
Hình 3.7. So sánh tỷ lệ kiểm tra từ 1000 đến 5000 trên mẫu trên dữ liệu Adult ..... 93
Hình 3.8. So sánh tỷ lệ dự đoán của thuật toán FMixC4.5, HAC4.5 và HAC4.5* với
các cách tiếp cận khác.............................................................................. 95

xi


MỞ ĐẦU

1. Lý do chọn đề tài
Trong cuộc sống con người, ngôn ngữ được hình thành một cách tự nhiên
để đáp ứng nhu cầu trao đổi thông tin của xã hội. Hơn thế, ngôn ngữ là công cụ
để con người mô tả các sự vật, hiện tượng trong thế giới thực và dựa trên đó để
tư duy, lập luận đưa ra những nhận định, phán quyết nhằm phục vụ cho cuộc
sống xã hội của chúng ta. Trong thực tế, các khái niệm mờ luôn tồn tại, ví dụ
như trẻ, rất trẻ, hơi già, quá già,... nên với việc quan niệm các đối tượng được
sử dụng phải luôn rõ ràng ở trong logic cổ điển sẽ không đủ miêu tả các vấn đề
của thế giới thực.
Năm 1965, L. A. Zadeh đã đề xuất hình thức hóa toán học của khái niệm
mờ [79], từ đó lý thuyết tập mờ được hình thành và ngày càng thu hút nhiều nhà
nghiên cứu. Bằng các phương pháp tiếp cận khác nhau, nhiều nhà nghiên cứu
như Dubois, Prade [21], Mariana [50], Ishibuchi [36], Herrera [8], Yakun Hu
[77],… đã đưa ra những kết quả cả về lý thuyết và ứng dụng cho nhiều lĩnh vực
như: điều khiển mờ, cơ sở dữ liệu mờ, khai phá dữ liệu mờ. Ý tưởng nổi bật của
Zadeh là từ những khái niệm trừu tượng về ngữ nghĩa của thông tin mờ, không
chắc chắn như trẻ-già, nhanh-chậm, cao-thấp,… và đã tìm ra cách biểu diễn

chúng bằng một khái niệm toán học, được gọi là tập mờ.
Tuy nhiên, việc mô hình hóa quá trình tư duy lập luận của con người là
một vấn đề khó luôn thách thức các nhà nghiên cứu bởi đặc trưng giàu thông tin
của ngôn ngữ và cơ chế suy luận không những dựa trên tri thức mà còn là kinh
nghiệm, trực quan cảm nhận theo ngữ cảnh của con người. Cấu trúc thứ tự cảm
sinh trên các khái niệm mờ biểu thị bằng các giá trị ngôn ngữ không được thể
hiện trên các tập mờ vì hàm thuộc của chúng lại không sánh được với nhau. Hơn
thế nữa, việc thiết lập các tập mờ của các giá trị ngôn ngữ một cách cố định dựa
theo chủ quan của người thiết lập, trong khi một giá trị ngôn ngữ sẽ mang ngữ
nghĩa tương đối khác nhau trong các bài toán khác nhau [2], [7], [8].

1


Phân lớp dữ liệu bằng cây quyết định mờ dựa trên đại số gia tử

Nhằm khắc phục phần nào những nhược điểm trên, năm 1990, N.C. Ho &
W. Wechler đã khởi xướng phương pháp tiếp cận đại số đến cấu trúc tự nhiên
của miền giá trị của các biến ngôn ngữ [23]-[27]. Theo cách tiếp cận này, mỗi
giá trị ngôn ngữ của một biến ngôn ngữ nằm trong một cấu trúc đại số gọi là đại
số gia tử (ĐSGT). Dựa trên những tính chất ngữ nghĩa của ngôn ngữ được phát
hiện, bằng phương pháp tiên đề hóa nhiều tác giả đã tập trung phát triển lý thuyết
ĐSGT với các kết quả như ĐSGT mở rộng, ĐSGT mịn hóa, ĐSGT mở rộng đầy
đủ, ĐSGT PN-không thuần nhất. Trên cơ sở đó, đã có nhiều nghiên cứu về lý
thuyết cũng như ứng dụng của nhiều tác giả trong các lĩnh vực: điều khiển mờ và
lập luận mờ [3], [4], [5], cơ sở dữ liệu mờ [1], [63], phân lớp mờ [28], [31],… và
đã cho chúng ta nhiều kết quả rất khả quan, có khả năng ứng dụng tốt. Những kết
quả này, dù chưa nhiều, nhưng đã cho thấy ý nghĩa cũng như thế mạnh của
ĐSGT trong ứng dụng và đây là một hướng nghiên cứu đang được nhiều nhà
khoa học quan tâm.

Thêm vào đó, với sự bùng nổ dữ liệu của thời đại thông tin như hiện nay,
lượng dữ liệu được tạo ra hàng ngày là rất lớn. Khối lượng thông tin dữ liệu
khổng lồ này vượt khỏi giới hạn khả năng ghi nhớ và xử lý của con người. Nhu
cầu cần thiết là nghĩ đến các quá trình tự động tìm kiếm các thông tin hữu ích,
các quan hệ ràng buộc dữ liệu trong các kho dữ liệu lớn để phát hiện các tri thức,
các quy luật hay khuynh hướng dữ liệu hỗ trợ con người phán đoán, nhận xét, ra
quyết định. Nhằm đáp ứng các nhu cầu đó, nhiều nhà khoa học đã đề xuất,
nghiên cứu và phát triển các phương pháp mới trong khai phá dữ liệu. Các bài
toán được biết đến trong lĩnh vực này như phân lớp và nhận dạng mẫu, hồi quy
và dự báo, phân cụm, khai phá luật kết hợp,... với rất nhiều kết quả đã được công
bố [6], [10], [11], [32], [36], [38], [49],...
Phân lớp dữ liệu là một quá trình quan trọng của khai phá dữ liệu, đó là
quá trình chia các đối tượng dữ liệu thành các lớp dựa trên các đặc trưng của tập
dữ liệu. Quá trình phân lớp dữ liệu bao gồm việc xây dựng một mô hình dựa trên
việc phân tích các mẫu dữ liệu sẵn có và sử dụng mô hình để phân lớp các dữ
liệu chưa biết. Các phương pháp thường được sử dụng trong quá trình học phân
lớp như: thống kê, mạng nơron, cây quyết định,… trong đó cây quyết định là
một giải pháp hữu hiệu để mô tả quá trình phân lớp dữ liệu. Do cây quyết định

2


Phân lớp dữ liệu bằng cây quyết định mờ dựa trên đại số gia tử

rất hữu dụng nên đã có nhiều nghiên cứu để xây dựng nó mà nổi bật là các thuật
toán học quy nạp như ID3, C45 [41], [67],… CART, SLIQ, SPRINT [14], [52],
[74],… Fuzzy ID3 [46], [69], [70],… LDT, LID3 [40], [55], [84], [85],...
Trong việc phân lớp dữ liệu bằng cây quyết định, quá trình xây dựng tại
mỗi nút của cây, các thuật toán đều tính lượng thông tin và chọn thuộc tính
tương ứng có lượng thông tin tối đa làm nút phân tách trên cây. Các thuộc tính

này sẽ chia tập mẫu thành các lớp mà mỗi lớp có một phân loại duy nhất hay ít
nhất phải có triển vọng đạt được điều này, nhằm để đạt được cây có ít nút nhưng
có khả năng dự đoán cao. Tuy vậy, các cách tiếp cận cho việc huấn luyện cây
quyết định hiện nay vẫn còn nhiều vấn đề cần giải quyết:
- Breiman L, Friedman J. [14], Guang-Bin Huang, Hongming Zhou [24],
Kishor Kumar Reddy [43], Patil N. [54], Quinlan J. R. [60-62], Shou-Hsiung
Cheng, Yi Yang và các cộng sự [67], [78] đã dựa vào khái niệm Entropi thông
tin để tính lợi ích thông tin và tỷ lệ lợi ích thông tin của các thuộc tính tại thời
điểm phân chia các nút. Hướng tiếp cận này cho chúng ta các thuật toán có độ
phức tạp thấp nhưng việc phân chia k-phân trên các thuộc tính rời rạc làm cho số
nút của cây tăng nhanh, làm tăng chiều rộng của cây, dẫn đến tình trạng quá
khớp trên cây kết quả nên ảnh hưởng đến khả năng dự đoán.
- Manish Mehta, Jorma Rissanen, Rakesh Agrawal [47], [48], Narasimha
Prasad, Mannava Munirathnam Naidu [52], Zhihao Wang, Junfang Wang,
Yonghua Huo, Hongze Qiu [87], Haitang Zhang và các cộng sự [32] dựa vào
việc tính hệ số Gini và tỷ lệ hệ số Gini của các thuộc tính để lựa chọn điểm phân
chia. Theo hướng tiếp cận này, chúng ta không cần đánh giá mỗi thuộc tính mà
chỉ cần tìm điểm chia tách tốt nhất cho mỗi thuộc tính đó. Tuy nhiên, tại mỗi
thời điểm chúng ta phải tính một số lượng lớn hệ số Gini cho các giá trị rời rạc
nên chi phí về độ phức tạp tính toán cao và cây kết quả mất cân xứng vì phát
triển nhanh theo chiều sâu, số nút trên cây lớn.
- B. Chandra [11], Chida A. [16], Daveedu Raju Adidela, Jaya Suma. G,
Lavanya Devi. G [19], Hesham A. Hefny, Ahmed S. Ghiduk [26], Hou Yuanlong, Chen Ji-lin, Xing Zong-yi [32], Marcos E. Cintra, Maria C. Monard [49],
Zeinalkhani M., Eftekhari M. [83] và các cộng sự đã thông qua lý thuyết tập mờ
để tính lợi ích thông tin của các thuộc tính mờ cho quá trình phân lớp. Hướng

3


Luận án đủ ở file: Luận án full













×