Tải bản đầy đủ (.pdf) (67 trang)

Ứng dụng mạng reservoir trong nhận dạng và điều khiển ( Luận văn thạc sĩ)

Bạn đang xem bản rút gọn của tài liệu. Xem và tải ngay bản đầy đủ của tài liệu tại đây (637.17 KB, 67 trang )

ĐẠI HỌC THÁI NGUYÊN
TRƢỜNG ĐẠI HỌC KỸ THUẬT CÔNG NGHIỆP

TRỊNH THỊ MINH NGUYỆT

ỨNG DỤNG MẠNG RESERVOIR TRONG NHẬN
DẠNG VÀ ĐIỀU KHIỂN

LUẬN VĂN THẠC SĨ KỸ THUẬT

Thái nguyên - 2014
Số hóa bởi Trung tâm Học liệu

/>

MỞ ĐẦU
Tính cấp thiết của đề tài: Việc ứng dụng mạng nơ-ron trong nhận dạng
và đặc biệt trong lĩnh vực điều khiển còn gặp phải nhiều khó khăn như vấn đề
tìm nghiệm tối ưu toàn cục, tốc độ học, khả năng đáp ứng tính năng thời gian
thực của hệ thống. Tuy nhiên trong những năm gần đây đã ra đời một loại mạng
nơ-ron mới với phương pháp huấn luyện đơn giản và nhanh hơn. Mạng mới này
có tên gọi khác nhau gồm: Reservoir Computing Networks (RCN), Echo State
Networks (ESN) và Liquid State Machines (LSM). Nhưng về bản chất là giống
nhau. Để đơn giản và tiện lợi trong quá trình nghiên cứu, tôi gọi tên mạng này là
mạng Reservoir.
Trong thực tế mạng reservoir đã được ứng dụng thành công trong dự đoán
chuỗi thời gian hỗn loạn không có nhiễu và bài toán thích nghi nhanh, nhưng
chưa được ứng dụng vào lĩnh vực nhận dạng hệ thống và thiết kế bộ điều khiển
dựa trên cơ sở mạng này.
Mạng reservoir là một ý tưởng nghiên cứu tương đối mới và vẫn còn
nhiều vấn đề mở và hướng nghiên cứu trong tương lai. Xuất phát từ lý do đó nên


tôi đã tự đề xuất hướng nghiên cứu và chọn đề tài: “ Ứng dụng mạng Reservoir
trong nhận dạng và điều khiển”.
Mục tiêu chính của đề tài: Nâng cao phương pháp huấn luyện mạng
reservoir và ứng dụng để nhận dạng hệ thống và thiết kế bộ điều khiển nơ-ron.
Đề tài " Ứng dụng mạng Reservoir trong nhận dạng và điều khiển" nhằm
phát triển một phương pháp huấn luyện mạng mới sử dụng các công cụ, thiết bị
nghiên cứu như: Máy tính, phần mềm Matlab, Neural Network Toolbox 2013.
Việc nghiên cứu ứng dụng mạng Reservoir trong nhận dạng và điều khiển
đòi hỏi phải có những hiểu biết nhất định về mạng nơ ron, sử dụng phần mềm
matlab.
Kết quả dự kiến cần đạt đƣợc:
Số hóa bởi Trung tâm Học liệu

/>

- Khai thác công cụ Neural Networks Toolbox trong Matlab 2013, viết tài
liệu hướng dẫn sử dụng công cụ này.
- Viết chương trình huấn luyện cho mạng reservoir trong Matlab.
- So sánh kết quả huấn luyện mạng reservoir với các tham số mạng ban
đầu khác nhau cho một số đối tượng thử nghiệm.
- Đề xuất phương pháp chọn tham số ban đầu cho mạng reservoir.
- Đề xuất phương pháp huấn luyện mạng reservoir.
- Viết chương trình nhận dạng hệ thống và huấn luyện bộ điều khiển trên
cơ sở mạng reservoir trong Matlab và kiểm chứng chất lượng điều khiển trên đối
tượng thực là mô hình cánh tay máy 1 bậc tự do.
Phƣơng pháp nghiên cứu: Nghiên cứu lý thuyết và nghiên cứu thực nghiệm:
Nghiên cứu lý thuyết:
- Nghiên cứu mạng reservoir, Viết chương trình huấn luyện cho mạng
reservoir trong Matlab.
- Mô hình hóa và huấn luyện mạng trên cơ sở phần mềm Matlab, Neural

Networks Toolbox bản 2013.
- Viết chương trình nhận dạng hệ thống và huấn luyện bộ điều khiển trên
cơ sở mạng reservoir trong Matlab.
Nghiên cứu thực nghiệm
- Chạy thử nghiệm chương trình trên Matlab.
- Thực nghiệm trên mô hình vật lý để kiểm nghiệm và hoàn thiện cấu trúc
và tham số bộ điều khiển.
- Ứng dụng nhận dạng và điều khiển các hệ thống trong phòng thí nghiệm
như cánh tay máy
Đề tài sẽ trình bày theo những nội dung sau:
Chương I: Giới thiệu về mạng Reservoir
Chương II: Tìm hiểu công cụ mạng nơ ron trong Matlab
Chương III: Ứng dụng mạng Reservoir trong nhận dạng hệ thống
Chương IV: Điều khiển cánh tay máy 1 bậc tự do trong phòng thí nghiệm
Kết quả và kiến nghị
Số hóa bởi Trung tâm Học liệu

/>

Chƣơng 1
GIỚI THIỆU MẠNG RESERVOIR
Mạng Reservoir là một khái niệm mới trong lĩnh vực mạng nơ-ron. Về cơ
bản cấu trúc mạng reservoir không có gì khác biệt so với các mạng nơ-ron khác,
nhưng về phương pháp huấn luyện mạng thì có sự khác biệt trong quá trình học.
Trong chương này tôi sẽ giới thiệu cấu trúc mạng nơ-ron từ cơ bản tới phức tạp,
các ký hiệu và khái niệm cơ bản. Trên cơ sở đó tôi sẽ trình bày cấu trúc và
phương pháp huấn luyện mạng reservoir.
1.1 Cấu trúc mạng nơ-ron
Trong phần này tôi sẽ giới thiệu cấu trúc, khái niệm của một nơ-ron, một
lớp nơ-ron, nhiều lớp nơ-ron và mạng hồi qui. Đồng thời để đơn giản cho việc

theo dõi và mô tả về sau, tôi cũng đưa ra một số qui ước chung.
Tôi sẽ sử dụng công cụ Neural Networks trong Matlab để mô tả và huấn
luyện mạng. Do đó các ký hiệu, khái niệm và cấu trúc sẽ theo như định nghĩa
của Matlab/Neural Network Toolbox.
1.1.1 Cấu trúc mạng 1 nơ - ron 1 đầu vào
Một nơ ron với một đầu vào có sơ đồ cấu trúc như hình 1.1.
p

w

n



ƒ

a

b
1

Hình 1.1. Cấu trúc cơ bản của một nơ - ron (1 đầu vào)
Cấu trúc cơ bản của một nơ ron gồm: đầu vào p, và đầu ra a, w là trọng
số, ∑ là bộ tổng, b là ngưỡng, f là hàm truyền.
Quan hệ vào ra của 1 nơ ron là:
a

Số hóa bởi Trung tâm Học liệu

f wp b


(1.1)

/>

1.1.2 Cấu trúc mạng 1 nơron nhiều đầu vào
P1
P2
P3

w1,1
n



a

ƒ

b
w1,R

PR

1
a = f (wp + b)

Hình 1.2. Cấu trúc cơ bản của một nơ - ron nhiều đầu vào
Hình 1.2 là sơ sồ cấu trúc của 1 nơ-ron có nhiều đầu vào. Nơ ron có R tín
hiệu đầu vào biểu diễn dưới dạng rút gọn được thể hiện như trên hình 1.3.

Trong đó: b là bias; n là tổng trọng, f là hàm truyền, a là đầu ra của nơ
ron; p = [p1 p2 .... pR] là véc tơ đầu vào, W = [w1,1 w1,2 ... w1,R] là véc tơ trọng
số đầu vào.
n = w1,1 p1 + w1,2 p2 +... + w1,R pR + b

(1.2)

n = W*p + b
a = f (wp + b)

(1.3)

Mô hình thu gọn của nơ ron:
P
Rx1

W
+

1
R

b

n
1x1

ƒ

1x1


1x1

Hình 1.3. Mô hình nơ ron thu gọn (nhiều đầu vào)

Số hóa bởi Trung tâm Học liệu

/>

1.1.3 Cấu trúc 1 lớp nơ-ron
Mô hình một lớp có S nơ ron với R đầu vào như hình vẽ 1.4.
P1

w1,1



P2

n1

ƒ

a1

n2

ƒ

a2


ns

ƒ

as

b1
1


P3

B2

wS,R

PR

1

bs
1

a = f (wp +
b)

Hình 1.4: Mô hình 1 lớp nơ ron
Trong đó mỗi phần tử của véc tơ đầu vào p được nối với mỗi nơ ron
tương ứng qua ma trận trọng số W; f là hàm truyền; p là véc tơ đầu vào có dạng

véc tơ cột (Rx1); a là đầu ra của lớp nơ ron có dạng véc tơ cột (Sx1) và ma trận
trọng số có dạng:
P
Rx1

1
R

W
SxR

b

+

n
sx1

ƒ

a
sx1

sx1

Hình 1.5: Mô hình một lớp nơ ron

Số hóa bởi Trung tâm Học liệu

/>


w1,1w1,2 ....w1, R
W

w 2,1w 2,2 ....w 2, R

(1.4)

...
w S ,1w S ,2 ....w S , R

Các thành phần cơ bản của một nơron nhân tạo bao gồm:
♦ Tập các đầu vào: Là các tín hiệu vào (input signals) của nơron, các tín
hiệu này thường được đưa vào dưới dạng một vector N chiều.
♦ Tập các liên kết: Mỗi liên kết được thể hiện bởi một trọng số (gọi là
trọng số liên kết – Synaptic weight). Trọng số liên kết giữa tín hiệu vào thứ j với
nơron k thường được kí hiệu là w . Thông thường, các trọng số này được khởi
kj

tạo một cách ngẫu nhiên ở thời điểm khởi tạo mạng và được cập nhật liên tục
trong quá trình huấn luyện mạng (epoch).
♦ Bộ tổng (Summing function): Thường dùng để tính tổng của tích các
đầu vào với trọng số liên kết của nó.
♦ Ngƣỡng (còn gọi là một độ lệch - bias): Ngưỡng này thường được đưa
vào như một thành phần của hàm truyền.
♦ Hàm truyền (Transfer function) : Hàm này được dùng để giới hạn
phạm vi đầu ra của mỗi nơron. Nó nhận đầu vào là kết quả của hàm tổng và
ngưỡng đã cho. Các hàm truyền rất đa dạng, có thể là các hàm tuyến tính hoặc
phi tuyến. Việc lựa chọn hàm truyền nào là tuỳ thuộc vào từng bài toán và kinh
nghiệm của người thiết kế mạng. Một số hàm truyền thường sử dụng trong các

mô hình mạng nơron được đưa ra trong bảng 1 .
♦ Đầu ra: Là tín hiệu đầu ra của một nơron, với mỗi nơron sẽ có tối đa là
một đầu ra.
Xét về mặt toán học, cấu trúc của một nơron k, được mô tả bằng cặp biểu
thức sau:
Số hóa bởi Trung tâm Học liệu

/>

a = f (wp + b)
trong đó: x , x , ..., x : là các tín hiệu vào; (w , w
1

2

p

k1

k2, ...,

w ) là các trọng số
kp

liên kết của nơron thứ k; u là hàm tổng; b là một ngưỡng; f là hàm truyền và y
k

k

k


là tín hiệu đầu ra của nơron.
Gọi ma trận trọng số liên kết với lớp vào là ma trận trọng số đầu vào IW.
Gọi ma trận trọng số liên kết giữa 2 lớp LW. Quy ước ký hiệu chỉ số lớp nguồn
là chỉ số thứ hai và chỉ số lớp đích thực là chỉ số thứ nhất.
Ví dụ: LWi,j là ma trận trọng số liên kết từ lớp nguồn j đến lớp đích i.
P

IW1,1

Rx1

s1xR

1
R

b1

+

n1
s1x1

ƒ

a1
sx1

1


s x1

Hình 1.6: Mạng 1 lớp rút gọn
Đầu ra của nơ ron được tính như sau:
a1 = f (IW1,1 p + b1)
1.1.4 Mạng nhiều lớp
Hình 1.7 mô tả mô hình của mạng nơ ron truyền thẳng 3 lớp. Mỗi lớp có
ma trận trọng số IW, LW, véc tơ bias b và véc tơ tín hiệu đầu ra a. Tín hiệu đầu
ra mỗi lớp ai, p là véc tơ tín hiệu vào, fi là hàm truyền (i= 1,2,3). Từ đó có được
tín hiệu ra là a3 có dạng:
a3 = f3 (LW3,2f2 (LW2,1f1(IW1,1p+b1)+ b2)+ b3)

Số hóa bởi Trung tâm Học liệu

/>

P1

IW1,1

n1


P2

1

1


f

1
1 b
1

S,R

a

2

2

n



1

f

1

a

1

s


1

f

s



1


LW2,1s2, s1

1

b
1 s1

2

a21 LW3,2

1

3

f

b3


2

f

n2s1

2

1 1 3
n
∑ 2
3
1 b

a22

a2s

2

3


LW3,2s3, s2

b2
1 s2

f3


n3s1

2

f

2

a1 = f1 (IW1,1p+ b1)

n3



f

1

1 1 2
n
∑ 2
b2
1
2

1

2

n2


b2

b1

1
PR IW1,1

1

n1



P3

a11 LW2,1

f

a31

a32

a3s

3

b3
1 s3


a3 = f3 (LW3,2a3+ b3)

2

a2 = f2 (LW2,1a + b )

Hình 1.7: Mô hình của mạng nơ ron truyền thẳng ba lớp
Mô hình rút gọn như hình 1.8.
P

IW

R
x1

1

s xR

1
R

a1

1,1

b1
1


s x1

+

n1
s1x1

1

f

a2

2,1

s1x1

LW

s2xs1

1
s1

+

b2

n2
s2x1


1

s2 x1

1

s2 x1

a1 = f1 (IW1,1p+ b )

f2
s2

2

a3

LW3,2
s3xs2

+

b3

n3
s3x1

s3 x1


s3
3,2

1.1.5 Mạng một nơ ron hồi quy
IW1,1



n(t)

a(t)

LW1,1

D
a(t) = IWp(t)+LW a(t-1)

Hình 1.9: Mô hình 1 nơ ron hồi quy
Số hóa bởi Trung tâm Học liệu

3

a3 = f3 (LW a3+ b )

2

a2 = f2 (LW2,1a + b )

Hình 1.8: Mô hình của mạng nơ ron truyền thẳng ba lớp thu gọn


p(t)

f3

/>
s3 x1


T
D
L

IW

R1x1

R

1,1

s1xR

b

1
1

a1(t)

LW1,1


n1(t)
+

1

T
D
1
f1 s x1 L

LW
2

s x1

1

s x1

s1

+

2

2
f2 s x1

s2x1


1

2

s x1
T
D
L

T
D LW1,3
L

n (t)

1

b

a2(t)

2

s xs

1

1


2,1

s2

LW

a3(t)

3,1

3

2

+

s xs

b

3

s3 x1

n3(t)
s3x1

f3

s3


LW2,3

Hình 1.10: Mô hình mạng hồi quy nhiều lớp
Trong đó khối TDL là khâu trễ

1.2 Mạng Reservoir
Mạng Reservoir có quan hệ vào ra như sau:
f Winu k

x k 1

Wback y k

Wu k

Wf x k

y k

(1.5)
(1.6)

Về cơ bản mạng Reservour có cấu trúc giống như mạng nơ ron thông
thường, nhưng không có bias.
W
Z-1
u

u

Z-1

Win

f

Wf

+

Wback

g

y

Z-1

Hình 1.11: Mạng Reservoir
Số hóa bởi Trung tâm Học liệu

/>
s3 x1


Trong quá trình huấn luyện mạng trọng số được giữ cố định, chỉ trừ trọng
số W f . Các trọng số ban đầu được chọn phải nằm trong được tròn đơn vị. Chính
vì lý do này đã làm cho quá trình huấn luyện mạng reservoir đơn giản hơn so với
các mạng thông thường.
Nhìn vào công thức (1.5) và (1.6) ta thấy mạng này chỉ có một trễ, tức là

động học của hệ là bậc 1. Như vậy trong nhận dạng khi các đối tượng có bậc lớn
hơn 1 thì mạng reservoir rất khó có thể huấn luyện được. Do đó tôi sẽ tiến hành
làm thí nghiệm và cải tiến phương pháp huấn luyện mạng cho mạng reservoir để
mạng này có thể sử dụng để nhận dạng được các đối tượng có bậc lớn hơn hoặc
bằng 2.

1.3 Phƣơng pháp huấn luyện mạng
1.3.1 Các phƣơng pháp học
Một mạng nơron được huyấn luyện sao cho với một tập các vector đầu
vào X, mạng có khả năng tạo ra tập các vector đầu ra mong muốn Y của nó. Tập
X và Y được sử dụng cho huấn luyện mạng được gọi là tập huấn luyện (training
set). Các phần tử x thuộc X được gọi là các mẫu huấn luyện (training example).
Quá trình huấn luyện bản chất là sự thay đổi các trọng số liên kết của mạng.
Trong quá trình này, các trọng số của mạng sẽ hội tụ dần tới các giá trị tối ưu
sao cho với mỗi vector đầu vào x từ tập huấn luyện, mạng sẽ cho ra vector đầu
ra y như mong muốn.
Có ba phương pháp học phổ biến là học có giám sát (supervised
learning), học không giám sát (unsupervised learning) và học tăng cường
(Reinforcement learning):
♦ Học có giám sát: Là quá trình học có sự tham gia giám sát của một
“thầy giáo”. Cũng giống như việc ta dạy một em nhỏ các chữ cái. Ta đưa ra một
chữ “a” và bảo với em đó rằng đây là chữ “a”. Việc này được thực hiện trên tất
Số hóa bởi Trung tâm Học liệu

/>

cả các mẫu chữ cái. Sau đó khi kiểm tra ta sẽ đưa ra một chữ cái bất kì (có thể
viết hơi khác đi) và hỏi em đó đây là chữ gì?
Với học có giám sát, tập mẫu huấn luyện được cho dưới dạng:
D


x, t

IR N * R K

x, t

trong đó x = ( x1,x2,....,xN) là véc tơ đặc trưng N

chiều của mẫu huấn luyện và t

là véc tơ mục tiêu K chiều tương

t1 , t2 ,..., t K

ứng, nhiệm vụ của thuật toán là phải thiết lập được một cách tính toán trên mạng
như thế nào đó để sao cho với mỗi vector đặc trưng đầu vào thì sai số giữa giá
trị đầu ra thực sự của mạng và giá trị mục tiêu tương ứng là nhỏ nhất. Chẳng hạn
mạng có thể học để xấp xỉ một hàm t = f(x) biểu diễn mối quan hệ trên tập các
mẫu huấn luyện (x, t).
Như vậy với học có giám sát, số lớp cần phân loại đã được biết trước.
Nhiệm vụ của thuật toán là phải xác định được một cách thức phân lớp sao cho
với mỗi vector đầu vào sẽ được phân loại chính xác vào lớp của nó.
♦ Học không giám sát: Là việc học không cần có bất kỳ một sự giám sát
nào.
Trong bài toán học không giám sát, tập dữ liệu huấn luyện được cho dưới
dạng: D = {(x , x , ..., x )}, với (x , x , ..., x ) là vector đặc trưng của mẫu huấn
1

2


N

1

2

N

luyện. Nhiệm vụ của thuật toán là phải phân chia tập dữ liệu D thành các nhóm
con, mỗi nhóm chứa các vector đầu vào có đặc trưng giống nhau.
Như vậy với học không giám sát, số lớp phân loại chưa được biết trước,
và tùy theo tiêu chuẩn đánh giá độ tương tự giữa các mẫu mà ta có thể có các
lớp phân loại khác nhau.
♦ Học tăng cƣờng: đôi khi còn được gọi là học thưởng-phạt (rewardpenalty learning), là sự tổ hợp của cả hai mô hình trên. Phương pháp này cụ thể
như sau: với vector đầu vào, quan sát vector đầu ra do mạng tính được. Nếu kết
quả được xem là “tốt” thì mạng sẽ được thưởng theo nghĩa tăng các trọng số kết
Số hóa bởi Trung tâm Học liệu

/>

nối lên; ngược lại mạng sẽ bị phạt, các trọng số kết nối không thích hợp sẽ được
giảm xuống. Do đó học tăng cường là học theo nhà phê bình (critic), ngược với
học có giám sát là học theo thầy giáo (teacher).

1.3.2 Học có giám sát trong các mạng nơron
Học có giám sát có thể được xem như việc xấp xỉ một ánh xạ: X→ Y,
trong đó X là tập các vấn đề và Y là tập các lời giải tương ứng cho vấn đề đó.
Các mẫu x, y với x


x1 , x2 ,..., xn

X, y

y1 , y2 ,..., ym

Y được cho trước. Học

có giám sát trong các mạng nơ ron thường được thực hiện theo các bước sau:
♦ B1: Xây dựng cấu trúc thích hợp cho mạng nơron, chẳng hạn có (n + 1)
nơron vào (n nơron cho biến vào và 1 nơron cho ngưỡng x0), m nơron đầu ra, và
khởi tạo các trọng số liên kết của mạng.
♦ B2: Đưa một vector x trong tập mẫu huấn luyện X vào mạng
♦ B3: Tính vector đầu ra o của mạng
♦ B4: So sánh vector đầu ra mong muốn y (là kết quả được cho trong tập
huấn luyện) với vector đầu ra do mạng tạo ra; nếu có thể thì đánh giá lỗi.
♦ B5: Hiệu chỉnh các trọng số liên kết theo một cách nào đó sao cho ở lần
tiếp theo khi đưa vector x vào mạng, vector đầu ra sẽ giống với y hơn.
♦ B6: Nếu cần, lặp lại các bước từ 2 đến 5 cho tới khi mạng đạt tới trạng
thái hội tụ. Việc đánh giá lỗi có thể thực hiện theo nhiều cách, cách dùng nhiều
nhất là sử dụng lỗi tức thời: Err = (o - y), hoặc Err = |o - y|; lỗi trung bình bình
phương (MSE: mean-square error): Err = (o- y)2/2;
Có hai loại lỗi trong đánh giá một mạng nơron. Thứ nhất, gọi là lỗi rõ
ràng (apparent error), đánh giá khả năng xấp xỉ các mẫu huấn luyện của một
mạng đã được huấn luyện. Thứ hai, gọi là lỗi kiểm tra (test error), đánh giá khả
năng tổng quá hóa của một mạng đã được huấn luyện, tức khả năng phản ứng
Số hóa bởi Trung tâm Học liệu

/>


với các vector đầu vào mới. Để đánh giá lỗi kiểm tra chúng ta phải biết đầu ra
mong muốn cho các mẫu kiểm tra.
Thuật toán tổng quát ở trên cho học có giám sát trong các mạng nơron có
nhiều cài đặt khác nhau, sự khác nhau chủ yếu là cách các trọng số liên kết được
thay đổi trong suốt thời gian học. Trong đó tiêu biểu nhất là thuật toán lan truyền
ngược.

1.3.3 Phƣơng pháp lan truyền ngƣợc
Phương pháp lan truyền ngược được sử dụng để huấn luyện các mạng
truyền thẳng nhiều lớp với các phần tử xử lý trong mạng có hàm tác động là hàm
phi tuyến. Cho tập các cặp mẫu huấn luyện vào – ra (x(k),d(k)) với k = 1,2,…p
giải thuật sẽ cung cấp một thủ tục cho việc cập nhật các trọng số trong mạng từ
lớp neuron đầu ra tới lớp neuron đầu vào. Giải thuật vận hành theo 2 luồng dữ
liệu, đầu tiên là các mẫu huấn luyện x(k) được truyền từ lớp neuron đầu vào đến
lớp neuron đầu ra và cho kết quả thực sự y(k) của lớp neuron đầu ra. Sau đó các
tín hiệu sai lệch giữa neuron đầu ra mong muốn d(k) và đầu ra thực sự y(k) của
mạng được truyền ngược từ lớp đầu ra đến các lớp đứng trước để cập nhật các
trọng số trong mạng.
Giả sử xét mạng truyền thẳng ba lớp như hình 1.8 gồm lớp neuron đầu
vào (input layer), lớp neuron ẩn (hidden layer) và lớp neuron đầu ra (output
layer)
Lớp neuron đầu vào của mạng có m đầu vào trong đó x1…..,xi..,xm. lớp
neuron ẩn có r phần tử xử lý với các đầu ra, đó là z1….,zq…..,zr.và lớp neuron
đầu ra của mạng có n phần tử xử lý với n đầu ra,đó là y1….,yi….,yn. Trọng số
kết nối giữa đầu vào thứ j của lớp neuron đầu vào với phần tử xử lý thứ q của
lớp neuron ẩn là vqj và trọng số kết nối giữa phần tử xử lý thứ q của lớp neuron
ẩn với phần tử xử lý thứ i của lớp neuron đầu ra là wiq.
Số hóa bởi Trung tâm Học liệu

/>


Dữ liệu huấn luyện : {x(k),d(k),k =1,2….p}
Lớp ẩn :
m

netq

(hàm tích hợp)

vqj x j

(1.7)

j 1

m

zq

a netq

a

( hàm tác động)

vqj x j

(1.8)

j 1


Lớp ra :
r

r

neti

m

w iq zq

w iq a

q 1

vqj x j

q 1

r

y1

a net1

(hàm tích hợp)

r


a

(1.9)

j 1

w iq zq

a

q 1

m

w iq a

(hàm tác động)

vqj x j

q 1

(1.10)

j 1

Hàm mục tiêu :
E w

1

2

n

d1

y1

2

i 1

1
2

2

n

1
2

d1 a net1
i 1

n

2

r


d1 a
i 1

(1.11)

w iq zq
q 1

Luật học delta tổng quát hóa được xây dựng dùng phương pháp gradient
descent.
Xét các nhánh nối giữa nút ẩn và nút ra :
E
w iq

 w iq

oi

E
v qj

E y1 neti
y1 neti w iq

E yi
yi neti

Số hóa bởi Trung tâm Học liệu


di

yi

a neti
neti

di

yi

a (neti )
zq
neti

z

oi q

(1.12)

/>

Xét các nhánh nối giữa nút vào và nút ẩn :
E zq netq
zq netq vqj

E
vqj


 vqj
n

di
i 1

hq

E zq
zq netq

E
netq
a netq
netq

a netq

a neti
w iq
neti

yi

netq

xj

n


di

yi

i 1

hq

xj

a neti
w iq
neti

a netq

(1.13)

netq

n
oi

w iq

i 1

Luật học lan truyền ngƣợc :
Nhập :Tập các cặp mẫu huấn luyện {x(k),d(k),k =1,2,…..p},trong đó
các vector đầu vào với các phần tử cuối cùng được gán bằng -1.

Bƣớc 0 : Khởi động trị
Chọn hằng số học η >0,ngưỡng dừng Emax
Các trọng số có trị nhỏ và ngẫu nhiên
E =0 , K =1
Bƣớc 1 : Lan truyền thuận dữ liệu :
Áp dụng mẫu dữ liệu thứ k
Xác định tín hiệu tại các nút trong mạng
Xác định hàm mục tiêu (2.40)
Xác định tín hiệu học tại các nút (2.42)
Bƣớc 2 : Lan truyền ngược sai lệch :
Cập nhật các vector trọng số (2.41) và (2.43)
Xác định các tín hiệu học (2.44)
Bƣớc 3 : Kiểm tra :
Số hóa bởi Trung tâm Học liệu

/>

Nếu E > Emax : k =1 ,nhảy đến bước 1
Nếu E ≤ Emax : kết thúc
Trong mạng truyền thẳng nhiều lớp, việc huấn luyện mạng dùng giải
thuật lan truyền ngược chịu tác động bởi các yếu tố :
- trị khởi động của các trọng số : các trọng số nên khởi động với các
giá trị bé và ngẫu nhiên. Các giá trị lớn của vector trọng số có thể
làm tác động bão hòa khi bắt đầu học.
- hằng số học :η lớn sẽ hội tụ nhanh nhưng có thể gây vọt lố, do đó
có thể chọn η giảm dần
- Hàm mục tiêu
- Luật học
- Dữ liệu huấn luyện
- Số nút ẩn

Giải thuật gradient descent rất chậm bởi vì nó yêu cầu tốc độ học thấp cho
sự ổn định quá trình học.Việc lựa chọn hằng số học η cho phù hợp mạng nhiều
lớp là không đơn giản, η quá lớn dẫn đến quá trình học không ổn định và ngược
lại η quá nhỏ sẽ làm cho thời gian huấn luyện lớn.
Mạng phụ thuộc vào số neuron có trong lớp ẩn. quá ít neuron sẽ dẫn đến
tình trạng thiếu, quá nhiều neuron sẽ dẫn đến tình trạng thừa.

1.4 Ứng dụng mạng Reservoir trong nhận dạng
Mạng reservoir đã được ứng dụng thành công trong dự đoán chuỗi thời
gian hỗn loạn không có nhiễu và bài toán thích nghi nhanh. Trong quá trình
huấn luyện mạng, mạng reservoir chỉ cập nhật các trọng số ở lớp ra, do đó rút
ngắn được quá trình huấn luyện mạng.
Số hóa bởi Trung tâm Học liệu

/>

Luận án đầy đủ ở file: Luận án Full









×