Tải bản đầy đủ (.docx) (14 trang)

HỆ lại mờ nơ RON và hệ ANFIS

Bạn đang xem bản rút gọn của tài liệu. Xem và tải ngay bản đầy đủ của tài liệu tại đây (345.59 KB, 14 trang )

PHÁT TRIỂN HỆ THỐNG DỰ TRÊN
TRI THỨC

ĐỀ TÀI: HỆ LẠI MỜ NƠ RON VÀ HỆ ANFIS

GVHD
: Thầy Nguyễn Quang Hoan
SINH VIÊN: Trần Thị Thắm -B12DCCN084
Nguyễn Thị Quỳnh - B12DCCN083
Nguyễn Quang Hợp - B12DCCN065


ĐỀ TÀI: HỆ LAI MỜ NƠ RON VÀ HỆ ANFIS

I.

1.

SỰ KẾT HỢP GIỮA LOGIC MỜ VÀ MẠNG NƠRON
Khái niệm

Khi khảo sát mạng nơron và logic mờ, ta thấy mỗi loại đều có điểm mạnh, điểm
yếu riêng của nó.
Đối với logic mờ, ta dễ dàng thiết kế một hệ thống mong muốn chỉ bằng các
luật Nếu - thì (If-Then) gần với việc xử lý của con người. Với đa số ứng dụng thì
điều này cho phép tạo ra lời giải đơn giản hơn, trong khoảng thời gian ngắn hơn.
Thêm nữa, ta dễ dàng sử dụng những hiểu biết của mình về đối tượng để tối ưu hệ
thống một cách trực tiếp.
Tuy nhiên, đi đôi với các ưu điểm hệ điều khiển mờ còn tồn tại một số
khuyết như việc thiết kế và tối ưu hóa hệ logic mờ đòi hỏi phải có một số kinh
nghiệm về điều khiển đối tượng, đối với những người mới thiết kế lần đầu điều đó


hoàn toàn không đơn giản. Mặt khác còn hàng loạt những câu hỏi khác đặt ra cho
người thiết kế mà nếu chỉ dừng lại ở tư duy logic mờ thì hầu như chưa có lời giải,
ví dụ: Số tập mờ trong mỗi biến ngôn ngữ cần chọn bao nhiêu là tôi ưu? Hình dạng
các tập mờ thế nào? Vi trí mỗi tập mờ ở đâu? Việc kết hợp các tập mờ như thế
nào? Trọng số của mỗi luật điều khiển bằng bao nhiêu? Nếu như tri thức cần đưa
vào hệ được thể hiện dưới dạng các tập dữ liệu (điều này thường gặp khi thu thập
và xử lý dữ liệu để nhận dạng đối tượng) thì làm thế nào?...
Đối với mạng nơron, chúng có một số ưu điểm như xử lý song song nên tốc
độ xử lý rất nhanh; Mạng nơron có khả năng học hỏi; Ta có thể huấn luyện mạng
để xấp xỉ một hàm phi tuyến bất kỳ, đặc biệt khi đã biết một tập dữ liệu vào/ra...
Song nhược điểm cơ bản của mạng nơron là khó giải thích rõ ràng hoạt động của
mạng nơron như thế nào. Do vậy việc chỉnh sửa trong mạng nơron rất khó khăn.
Hai tiêu chí cơ bản trợ giúp cho người thiết kế ở logic mờ và ở mạng nơron
thể hiện trái ngược nhau (bảng 1).


Tiêu chí
Thể hiện tri thức

Mạng nơron
Không tường minh, khó
giải thích và khó sửa đổi.

Khả năng học
Có khả học năng thông
qua các tập dữ liệu.

Logic mờ
Tường minh, dễ kiểm
chứng hoạt động và dễ

sửa đổi
Không có khả năng học,
người thiết kế phải tự thiết
kế tất cả.

Từ những phân tích trên, ta thấy nếu kết hợp logic mờ và mạng nơ ron, ta sẽ
có một hệ lai với ưu điểm của cả hai: logic mờ cho phép thiết kế hệ dễ dàng, tường
minh trong khi mạng nơron cho phép học những gì mà ta yêu cầu về bộ điều khiển.
Nó sửa đổi các hàm phụ thuộc về hình dạng, vị trí và sự kết hợp,... hoàn toàn tự
động. Điều này làm giảm bớt thời gian cũng như giảm bớt chi phí khi phát triển hệ.

II.

HỆ NƠ RON MỜ
Cấu trúc của một hệ thống nơ ron mờ là tương tự như một mạng nơron nhiều

lớp.
Nói chung, một hệ thống nơ ron mờ có các lớp đầu vào và đầu ra, và ba ẩn
lớp đại diện cho hàm thành viên và luật mờ. Để đơn giản, chúng tôi giả định rằng
các hệ thống mờ có hai đầu vào x1 và x2 và một đầu ra y. Đầu vào x1 là
đại diện bởi tập mờ A1, A2 và A3; x2 đầu vào bằng cách mờ bộ B1, B2 và B3;
và đầy ra y của tập mờ C1 và C2. Mỗi lớp trong hệ thống nơ ron mờ được kết hợp
với một bước cụ thể trong quá trình suy luận mờ.

Layer 1: là lớp đầu vào. Mỗi tế bào nơ ron trong lớp này truyền sắc nét bên ngoài
tín hiệu trực tiếp đến các lớp tiếp theo. Đó là,


Trong đó


là đầu vào và

là đầu ra của nơron đầu vào tôi trong lớp 1

Layer 2: là thành viên đầu vào hoặc lớp fuzzification. Tế bào nơ ron trong
này lớp đại diện cho tập mờ được sử dụng trong các tiền đề của luật mờ. Một
fuzzification tế bào nơ ron nhận được một đầu vào rõ nét và xác định mức độ mà
đầu vào này thuộc tập mờ của tế bào nơ ron, như sau. Các chức năng kích hoạt của
một nơron thành viên được thiết lập với chức năng xác định tập mờ của tế bào nơ
ron. Trong ví dụ được trình bày trong hình 8.4, chúng tôi sử dụng bộ hình tam giác.
Do đó, các chức năng kích hoạt cho các tế bào nơ ron ở lớp 2 được thiết lập để các
hàm thành viên tam giác (mặc dù tế bào nơ ron fuzzification có thể có bất kỳ chức
năng thành viên thường được sử dụng trong các hệ thống mờ). Một hàm thành viên
tam giác có thể được xác định bởi hai tham số {a; b} như sau:


trong đó a và b là các thông số điều khiển trung tâm và chiều rộng của
tam giác, tương ứng, g là các đầu vào và h là đầu ra của fuzzification
nơron i trong lớp 2. Hình 8.6 minh họa một hàm hình tam giác và các hiệu ứng gây
ra bởi các biến thể của tham số a và b. Như chúng ta có thể thấy, sản lượng của
một fuzzification tế bào nơ ron không chỉ phụ thuộc vào đầu vào của nó, mà còn ở
trung tâm, một, và chiều rộng, b, của hàm kích hoạt tam giác. Các đầu vào tế bào
nơ ron có thể không thay đổi, nhưng đầu ra sẽ thay đổi theo sự thay đổi của tham
số a và b. Nói cách khác, tham số a và b của tế bào nơ ron fuzzification thể đóng
vai trò tương tự trong một hệ thống nơ ron mờ như trọng lượng khớp nơ ron trong
một mạng lưới nơ ron.

Layer 3: là lớp quy tắc mờ. Mỗi tế bào nơ ron trong lớp này tương ứng với
một quy tắc mờ duy nhất. Một nguyên tắc nơron mờ nhận đầu vào từ fuzzification
tế bào nơ ron mà đại diện cho tập mờ trong những tiền thân quy tắc. Ví dụ, tế bào

nơ ron R1, tương ứng với Quy tắc 1, nhận đầu vào từ các tế bào nơ ron A1 và B1


Trong các hệ thống mờ, nếu quy tắc nhất định có nhiều tiền lệ, một nhà điều
hành mờ sử dụng để có được một số duy nhất đại diện cho các kết quả của các kì
trước đánh giá. Các kết hợp của các tiền thân quy tắc được đánh giá bởi các mờ
giao điểm hoạt động. Các hoạt động mờ tương tự có thể được sử dụng để kết hợp
nhiều đầu vào cho một neuron quy tắc mờ. Trong một hệ thống nơ ron mờ, ngã tư
có thể được thực hiện bởi các nhà điều hành sản phẩm. Vì vậy, đầu ra của nơron i
trong lớp 3 thu được là:

trong đó
,
,
trong lớp 3. Ví dụ

Giá trị của

là các đầu vào và

là đầu ra của nơron quy tắc mờ i

đại diện cho sức mạnh bắn mờ quy tắc nơron R1.

Mức độ bình thường của độ tin cậy của một quy tắc mờ là gì?
Quy định khác nhau đại diện trong một hệ thống nơ ron mờ có thể được liên kết
với mức độ khác nhau của sự tin cậy. Trong hình 8.4, một chuyên gia có thể đính
kèm các mức độ tin cậy để mỗi mờ luật IF-THEN bằng cách thiết lập các trọng số
tương ứng trong khoảng [0; 1]. Trong thời gian đào tạo, tuy nhiên, những khối



lượng có thể thay đổi. Đến giữ chúng trong phạm vi nhất định, các trọng số được
chuẩn hóa bằng cách chia của họ giá trị tương ứng theo độ lớn trọng lượng cao
nhất ở mỗi lần lặp.
Layer 4: là lớp thành viên đầu ra. Nơron trong lớp này đại diện cho tập mờ
được sử dụng trong các hệ quả của luật mờ. Một nơron thành viên đầu ra nhận đầu
vào từ các tế bào nơ ron quy tắc mờ tương ứng và kết hợp chúng bằng cách sử
dụng các công đoàn hoạt động mờ. Hoạt động này có thể được thực hiện bởi xác
suất OR (còn được gọi là tổng đại số). Đó là,

trong đó
,
,
là các đầu vào và
viên i trong lớp 4. Ví dụ

là đầu ra của đầu ra nơron thành

Layer 5: là lớp defuzzification. Mỗi tế bào nơ ron trong lớp này đại diện
cho một đầu ra duy nhất của hệ thống nơ ron mờ. Nó có các tập mờ đầu ra cắt bớt
bởi thế mạnh bắn tích hợp tương ứng và kết hợp chúng thành một đơn tập mờ.

Đầu ra của hệ thống nơ ron mờ là sắc nét, và do đó sản lượng kết hợp tập mờ
phải defuzzified. hệ thống Neuro-mờ có thể áp dụng phương pháp defuzzification
tiêu chuẩn, bao gồm các kỹ thuật trọng tâm. Trong ví dụ của chúng tôi, chúng tôi
sẽ sử dụng phương pháp thành phần tổng hợp sản phẩm (Janget al., 1997), trong đó
cung cấp một phím tắt tính toán cho việc suy luận Mamdani.
Các thành phần tổng hợp sản phẩm tính toán sản lượng sắc nét như trọng
trung bình của các trọng tâm của tất cả các chức năng thành viên đầu ra. Ví dụ, các
bình quân gia quyền của các trọng tâm của sự cắt bớt mờ bộ C1 và C2 được tính

như,


Với và là các trung tâm, và và là chiều rộng của mờ bộ C1 và C2, tương
ứng.

III.

ANFIS: HỆ SUY DIỄN THÍCH ỨNG NƠ RON MỜ

Ý tưởng cơ bản của kỹ thuật học neuro-adaptive rất đơn giản. Kỹ thuật này
đưa ra cơ chế cho mô hình mờ có thủ tục để học thông tin về tập dữ liệu theo thứ
tự ước tính các tham số của hàm liên thuộc mà nó cho phép kết hợp với hệ thống
suy diễn mờ theo hướng dữ liệu vào/ra nhất định. Phương pháp học này làm việc
tương tự như mạng nơron. Bộ công cụ logic mờ dùng để thực hiện việc điều chỉnh
tham số của hàm liên thuộc được gọi là Anfis. Ta có thể mở Anfis từ dòng lệnh
hoặc từ giao diện đồ hoạ (ANFIS Editor GUI). Hai cách này tương tự nhau, chúng
được sử dụng hoán đổi nhau. Tuy nhiên, giữa chúng cũng có đối chút khác biệt
(chúng ta sẽ bàn đển ở phần sau).
ANFIS xuất phát từ tiến Anh là Adaptive neuro-fuzzy infercnce system. Sử
dụng tập dữ liệu vào/ra có sẵn, hàm anfis xây dựng nên hệ thống suy diễn mờ
(FIS), các thông số hàm liên thuộc của nó được điều chỉnh nhờ sử dụng các thuật
toán huấn luyện của mạng nơron như thuật toán lan truyền ngược hoặc kết hợp lan
truyền với phương pháp bình phương cực tiểu. Điều đó cho phép hệ mờ của ta
"học" từ tập dữ liệu chúng được mô hình.
Một kiểu mạng có cấu trúc tương tự mạng nơron, nó ánh xạ các đầu vào qua
các hàm liên thuộc vào với các thông số tương ứng và sau đó là thông qua các hàm
ra với các tham số tương ứng tạo nên các đầu ra có thể được sử dụng để giải thích
ánh xạ vào/ra. Các thông số tương ứng với hàm liên thuộc sẽ thay đổi thông qua
quá trình học. Việc tính toán các tham số này (hoặc việc điều chỉnh chúng) thực

hiện dễ dàng bằng véc tơ gradient nó đưa ra giới hạn theo cách tốt cho hệ thống
suy diễn mờ được mô hình hoá dữ liệu vào/ra theo tập các tham số nhất định. Ta đã


biết, véc tơ gradient được áp dụng cho một vài thủ tục tối ưu cốt để điều chỉnh các
tham số sao cho giảm nhỏ giá trị sai số (thường được định nghĩa bằng tổng bình
phương sai lệch giữa đầu ra hiện thời và đầu ra mong muốn). Anfis sử dụng điều
đó theo giải thuật lan truyền ngược hoặc kết hợp sự ước lượng bình phương cực
tiểu và sự lan truyền ngược cho sự ước lượng tham số hàm liên thuộc.
Xác nhận dữ liệu huấn luyện
- Tìm hiểu dữ liệu
Phương thức tạo mẫu được sử dụng bởi Anfis giống như các kỹ thuật nhận
dạng hệ thống khác. Đầu tiên ta đưa ra một cấu trúc tham số mẫu (liên kết các đầu
vào tới các hàm liên thuộc với các luật tới các đầu ra tới các hàm liên thuộc...). Kế
đến, là thu thập dữ liệu vào/ra vào một dạng sao cho tiện lợi cho sự huấn luyện của
Anfis. Ta có thể sử dụng Anfis để huấn luyện mô hình FIS nhằm mô phỏng dữ liệu
huấn luyện đưa vào để nó sửa đổi các tham số của hàm liên thuộc theo tiêu chuẩn
sai số dã lựa chọn. Nói chung, kiểu mô hình này sẽ làm việc tốt nếu dữ liệu đưa
vào Anfis cho sự huấn luyện tham số các hàm liên thuộc đại diện đầy đủ cho các
đặc tính của tập dữ liệu mà nó được FIS huấn luyện giành cho mô hình. Điều này
không phải luôn luôn xảy ra, tuy nhiên, trong một vài trường hợp trong quá trình
thu thập dữ liệu, do ảnh hưởng của nhiễu đo lường mà dữ liệu huấn luyện không
thể đại diện cho tất cả các thuộc tính của dữ liệu sẽ có mặt ở mô hình.
-

Xác định mô hình bằng cách sử dụng các phần dữ liệu thử và kiểm
tra.

Công nhận giá trị mẫu (xác định mẫu) là quá trình trong đó các vectơ vào từ
dữ liệu vào/ra được đặt tại nơi mà FIS chưa được huấn luyện, mẫu được đưa tới

huấn luyện FIS để mẫu FIS đón trước giá trị dữ liệu đầu ra tương ứng có tốt hay
không. Nó được thực hiện bởi bộ soạn thảo ANFIS GUI. Ta có thể sử dụng một
loại dữ liệu khác để công nhận giá trị mẫu trong Anfis. Hình thức công nhận dữ
liệu này được hình dung như một hệ thống dữ liệu kiểm tra được sử dụng để điều
chỉnh sự công nhận giá trị dữ liệu. Khi dữ liệu kiểm tra được đưa tới Anfis cũng
giống như dữ liệu huấn luyện, mẫu FIS lựa chọn để các tham số liên quan có sai số
mẫu dữ liệu nhỏ nhất.


Một vấn đề đặt ra là việc công nhận giá trị dữ liệu để tạo mẫu sử dụng các
kỹ thuật thích nghi là lựa chọn tập dữ liệu tiêu biểu cho dữ liệu mẫu huấn luyện,
nhưng khác biệt với dữ liệu huấn luyện được thiết lập không phải để phản hồi cho
quá trình hợp thức hoá thiếu hiệu quả. Nếu ta thu thập một lượng lớn các dữ liệu,
thì dữ liệu này chứa đựng đầy đủ các đặc tính tiêu biểu vì vậy quá trình thu thập dữ
liệu để phục vụ mục đích kiểm tra hoặc thử sẽ dễ dàng hơn. Tuy nhiên nếu ta muốn
thực hiện các phép đo ở mẫu, có thể dữ liệu huấn luyện không bao gồm tất cả các
đặc tính tiêu biểu mà ta muốn.

VÍ DỤ

IF

x1 is A1

AND

x2 is A2

.....
AND xm is Am

THEN y =( x1;x2;...;xm)

Khi mà x1;x2;...;xm là các giá trị đầu vào, A1;A2;...;Am là tập mờ, và y là hằng
số hoặc là một hàm tuyến tính của các biến đầu vào.
Khi y là một hàm tuyến tính ta có:
y = k0 + k1x1 + k2x2 +...+kmxm
Ví dụ chúng ta giả định rằng có 2 giá trị đầu vào là x1 và x2, có một giá trị
đầu ra là y. Mỗi giá trị đầu vào được đại diện bởi 2 giá trị mờ và đầu ra bởi một đa
thức.


ANFIS thực hiện theo bốn luật.
Luật 1:
IF

x1 là A1

AND

x2 là B1

THEN

y = f1 = k10 + k11x1 + k12x2

Luật 2:
IF

x1 là A2


AND

x2 là B2

THEN

y = f2 = k20 + k21x1 + k22x2

Luật 3:
IF

x1 là A2

AND

x2 là B1


THEN y = f3 = k30 + k31x1 + k32x2

Luật 4:
IF

x1 là A1

AND

x2 là B2

THEN


y = f4 = k40 + k41x1 + k42x2

Với x1, x2 là các biến đầu vào; A1 và A2 là tập mờ của biến X1; B1 và B2 là
tập mờ của biến X2; và ki0, ki1 và ki2 là một tập hợp các thông số cụ thể cho các luật.
Layer 1: Là lớp giá trị đầu vào. Nơron trong lớp này chỉ đơn giản là vượt qua các
tín hiệu rõ nét bên ngoài vào Layer 2.
y(1)i = x(1)i
Với x(1)i là giá trị đầu vào và y(1)i là giá trị đầu ra của Noron trong lớp 1.
Layer 2: là lớp mờ. Noron trong lớp biểu diễn mờ này.

Giá trị của y(2)i nằm trong khoảng [0,1]
Với x(2)i Là đầu vào và y(2)i là giá trị đầu ra của noron i trong lớp 2; và ai, bi và
ci là thông số giả thiết.
Mỗi giá trị đầu ra của node là giá trị đầu vào của luật
Layer 3: Là lớp luật. Mỗi Noron trong lớp này tương ứng với một Sugeno - loại
quy tắc mờ. Một nơron quy tắc nhận đầu vào từ các noron mờ tương ứng và tính
toán sức mạnh của quy tắc nó đại diện. Vì vậy, đầu ra của nơron trong lớp 3 là
tổng giá trị đầu vào của luật, gọi là giá trị đầu vào của luật được chuẩn hóa


hay :

Layer 4: Là lớp bình thường.

Với x(4)ij là đầu vào từ noron j từ lớp 3 và noron i trong lớp 4, và n là tổng số luật
noron. Ta sẽ có: xác suất đầu ra của y(4)N1 sẽ là giá trị đầu ra của y(3) chia cho tổng
giá trị đầu ra

Layer 5 : Hàm liên thuộc

Với k là trọng số

Layer 6: Là lớp tổng nơron


TÀI LIỆU THAM KHẢO
[1] Michael Negnevitsky, Artificial Intelligence A Guide to Intelligent Systems, trang
268-285.



×