Mạng nơron nhân tạo
MỘT THUẬT TOÁN HỌC CỦA MẠNG NƠRON MỜ
VỚI CÁC TRỌNG SỐ MỜ TAM GIÁC
Trong bài báo này, đầu tiên chúng tôi sẽ đưa ra một kiến trúc của mạng nơron mờ
với những trọng số mờ tam giác. Mạng nơron được đưa ra có thể sử dụng các vectơ vào
mờ cũng như là các vectơ vào thực. Trong cả hai trường hợp, dữ liệu ra của mạng nơron
mờ đều là các vectơ mờ. Mối quan hệ giữa input và output của mỗi chức năng của mạng
nơron mờ được xác định bởi nguyên tắc mở rộng của Zadeh. Tiếp theo đó, chúng ta sẽ
định nghĩa một hàm chi phí cho các tập hợp không đổi của dữ liệu ra mờ và đích mờ. Sau
đó, ta xây dựng được một thuật toán học từ hàm chi phí cho việc điều chỉnh ba tham số
của mỗi trọng số mờ tam giác. Cuối cùng, minh hoạ phương pháp này bằng sự mô phỏng
máy tính trên những ví dụ bằng số.
1. Giới thiệu
Gần đây, có nhiều phương pháp nghiên cứu về sự mờ của các mạng nơron. Một
phương pháp làm mờ trực tiếp là mở rộng các dữ liệu vào thực và đích thực trong các
kiến trúc mạng nơron thông thường thành các số mờ. Ishibuchi [4] đã đưa ra một kiến
trúc của mạng nơron truyền thẳng nhiều lớp cho các vectơ vào mờ, và kiến trúc đó được
áp dụng để cài đặt các quy tắc if – then mờ trong tài liệu [5, 7]. Các trọng số liên kết của
mạng nơron truyền thẳng nhiều lớp được làm mờ trong tài liệu của Hayashi [3] và
Ishibuchi [6]. Trong tài liệu [3], Hayashi cũng đã mờ hoá quy tắc Delta trong khi
Ishibuchi xây dựng được một thuật toán học rõ cho các trọng số mờ tam giác.
Trong bài báo này, ta mở rộng công việc đầu tiên, đó là thảo luận về một mạng
nơron mờ một đầu vào và một đầu ra cho các vectơ vào thực tới trường hợp mạng nơron
mờ đa đầu vào và đầu ra cho các vectơ vào mờ. Trước hết, chúng ta đưa ra một kiến trúc
của mạng nơron mờ với các trọng số mờ tam giác cho các vectơ vào mờ. Mối quan hệ
giữa input và output của mỗi chức năng được xác định bởi nguyên tắc mở rộng của
Zadeh [9]. Dữ liệu ra từ mạng nơron mờ (cũng là những số mờ) được tính toán bởi số học
khoảng cách [1] cho các tập hợp không đổi của các trọng số mờ và dữ liệu vào mờ. Tiếp
đó chúng ta sẽ định nghĩa một hàm chi phí cho các tập không đổi của đầu ra mờ và các
1
Mạng nơron nhân tạo
đích mờ. Sau đó một thuật toán học rõ được xây dựng từ hàm chi phí cho việc điều chỉnh
ba tham số của mỗi trọng số mờ. Cuối cùng, minh hoạ minh hoạ phương pháp này bằng
sự mô phỏng máy tính trên những ví dụ bằng số. Trong các mô phỏng máy tính, ta sẽ
thảo luận cách thực thi quy tắc if – then và sự xấp xỉ của các hàm mờ bằng mạng nơron
mờ này. Sự mờ hoá trực tiếp của các mạng nơron thông thường là mở rộng các trọng số
liên kết, đầu vào và đích thành các số mờ. Sự mở rộng này được tổng kết trong bảng 1.
Mạng nơron mờ trong trường hợp 1 đã được sử dụng trong bài toán phân loại của một
vectơ vào mờ hoặc lớp crisp [5]. Để thực thi quy tắc if – then mờ bằng mạng nơron,
chúng ta sử dụng mạng nơron mờ với các dữ liệu vào mờ và đích mờ. Trong hai trường
hợp này, mạng nơron mờ có các trọng số rõ. Trường hợp 3 và 4, các trọng số liên kết
được mờ hoá. Bài báo này đặt tâm điểm vào hai trường hợp này. Ba trường hợp cuối
trong bảng 1 là không hiện thực.
Trọng số Đầu vào Đích
Mạng nơron thường số thực số thực số thực
Mạng nơron mờ: TH1 số thực số mờ số thực
Mạng nơron mờ: TH2 số thực số mờ số mờ
Mạng nơron mờ: TH3 số mờ số thực số mờ
Mạng nơron mờ: TH4 số mờ số mờ số mờ
Mạng nơron mờ: TH5 số thực số thực số mờ
Mạng nơron mờ: TH6 số mờ số thực số thực
Mạng nơron mờ: TH7 số mờ số mờ số thực
Bảng 1. Mờ hoá trực tiếp mạng nơron
2. Kiến trúc mạng nơron mờ
2.1. Các phép toán trên các số mờ
Trước khi mô tả một kiến trúc của mạng nơron mờ, chúng ta đề cập một cách vắn
tắt về các phép toán trên các số mờ được định nghĩa bằng việc mở rộng nguyên lý [9].
Trong bài báo này, chúng ta biểu diễn các số thực bằng các chữ cái thường, và số mờ
2
Mạng nơron nhân tạo
bằng chữ hoa. Vì các vectơ đầu vào và các trọng số kết nối của các mạng nơron truyền
thẳng nhiều lớp được làm mờ trong bài báo này nên việc định nghĩa phép nhân và phép
ánh xạ phi tuyến của các số mờ là cần thiết.
}|)()(max{)( yxzyxz
BABA
+=∧=
+
µµµ
(2.1)
}|)()(max{)( xyzyxz
BAAB
=∧=
µµµ
(2.2)
)}(|)(max{)(
)(
xfzxz
NetNetf
==
µµ
(2.3)
Ở đó : A, B, Net là các số mờ ;
µ
*
(@) biểu diễn hàm thành viên của mỗi số mờ ;
∧ là phép giao ;
f(x) = 1/{1 + exp(- x )} là hàm kích hoạt của các chức năng được ẩn và các
chức năng đầu ra của mạng nơron mờ.
Các phép toán trên của các số mờ được thực hiện bằng số trên các tập mức. Tập h
một số mờ X được định nghĩa như sau :
[X]
h
= {x | µ
X
(x) ≥ h, x ∈ R} với 0 < h ≤ 1 (2.4)
Trong đó µ
X
(x) là hàm thành viên của X và R là tập số thực. Bởi vì các tập hợp
level của các số mờ là khoảng cách khép kín nên ta định nghĩa [X]
h
như sau :
]][,][[][
U
h
L
hh
XXX =
(2.5)
ở đó
L
h
X ][
,
U
h
X ][
là giới hạn cận dưới và giới hạn cận trên của [X]
h
.
Ta có :
]][],][][[]][,][[]][,][[][][
U
h
U
h
L
h
L
h
U
h
L
h
U
h
L
hhh
BABABBAABA ++=+=+
(2.6)
]][,]].[[][,][[].[][
U
h
L
h
U
h
L
hhh
BBAABA =
]},].[],].[],].[],].[][min{[
U
h
U
h
U
h
L
h
L
h
U
h
L
h
L
h
BABABABA=
]}].[],].[],].[],].[]max{[
U
h
U
h
U
h
L
h
L
h
U
h
L
h
L
h
BABABABA
] (2.7)
)]][,]([[])][,]([[)]([
U
h
L
h
U
h
L
hh
NetNetfNetNetfNetf ==
(2.8)
Trong trường hợp
U
h
L
h
BB ][][0 ≤≤
(2.7) có thể được rút gọn như sau :
}]].[][],].[]max{[},].[][],].[][{[min].[][
U
h
U
h
L
h
U
h
U
h
L
h
L
h
L
hhh
BABABABABA =
(2.9)
3
Mạng nơron nhân tạo
2.2. Mối quan hệ input – output của mỗi chức năng
Mờ hoá một mạng nơron truyền thẳng 3 lớp với các chức năng input n
1
, chức năng
ẩn n
H
và các chức năng output n
0
. Các vectơ vào, vectơ đích, trọng số kết nối và các
ngưỡng được làm mờ. Để xây dựng được một thuật toán học chính xác, ta giới hạn các
trọng số mờ và ngưỡng mờ bên trong các số mờ tam giác trong khi ta có thể sử dụng kiểu
bất kỳ của các số mờ cho các đầu vào mờ và đích mờ. Mối quan hệ giữa input và output
được mô tả như sau :
Chức năng input :
O
pi
= X
pi
, i = 1, 2, … n
1
(2.10)
Các chức năng ẩn :
O
pj
= f(Net
pj
), j = 1, 2, …, n
H
(2.11)
∑
=
Θ+=
1
n
1
ji
W
i
ipipj
ONet
(2.12)
Chức năng output :
∑
=
Θ+=
==
H
n
j
ipjkjpk
pkpk
OwNet
nkNetfO
1
0
, ,2,1),(
(2.13)&(2.14)
Trong đó : X
pi
là dữ liệu vào mờ, W
ji
và W
kj
là trọng số mờ,
j
Θ
,
k
Θ
là ngưỡng mờ
2.3. Sự tính toán dữ liệu ra mờ
Dữ liệu ra mờ theo (2.10) – (2.14) được tính toán về số lượng cho các tập mức của
dữ liệu vào mờ, các trọng số mờ và ngưỡng mờ. Mối quan hệ này được mô tả cho các tập
mức h như sau :
Chức năng vào :
hpihpi
XO ][][ =
(2.15)
Chức năng ẩn :
)]([][
hpjhpj
NetfO =
(2.16)
∑
=
Θ+=
1
1
][][][][
n
i
hjhpihjihpj
OwNet
(2.17)
Chức năng ra :
4
Mạng nơron nhân tạo
)]([][
hpkhpk
NetfO =
(2.18)
∑
=
Θ+=
H
n
j
hkhpjhjkhpk
OwNet
1
][][][][
(2.19)
Từ (2.15) – (2.19) chúng ta có thể thấy tập mức h của dữ liệu ra mờ O
pk
được tính
toán từ mức này của dữ liệu vào mờ, trọng số mờ và các ngưỡng mờ. Khi các tập mức h
X
pi
là không âm và 0
U
hpi
L
hpi
XX ][][ ≤≤
thì (2.6) – (2.9) được viết lại như sau :
Chức năng vào :
]][,][[]][,][[][
U
hpi
L
hpi
U
hpi
L
hpihpi
XXOOO
==
(2.20)
Chức năng ẩn :
)]]([),]([[]][,][[][O
hpj
U
hpj
L
hpj
U
hpj
L
hpj
NetfNetfOO ==
(2.21)
∑
=
∑
=
=
Θ++
<≥
1
1
1
1
][
][][][][][
0][0][
n
i
L
hj
U
hpi
L
hij
n
i
L
hpi
L
hij
Net
OwOw
L
hij
L
hij
ww
L
hpj
(2.22)
∑
=
∑
=
=
Θ++
<≥
1
1
1
1
][
][][][][][
0][0][
n
i
U
hj
L
hpi
U
hij
n
i
U
hpi
U
hij
Net
OwOw
U
hij
U
hij
ww
U
hpj
(2.23)
Chức năng ra :
)]]([),]([[]][,][[][
U
hpk
L
hpk
U
hpk
L
hpkhpk
NetfNetfOOO ==
(2.24)
∑
=
∑
=
=
Θ++
<≥
H
n
j
L
hk
U
hpj
L
hkj
H
n
j
L
hpj
L
hkj
Net
OwOw
L
hkj
L
hkj
ww
L
hpk
11
][
][][][][][
0][0][
(2.25)
∑
=
∑
=
=
Θ++
<≥
H
n
j
U
hk
L
hpj
U
hkj
H
n
j
U
hpj
U
hkj
Net
OwOw
U
hkj
U
hkj
ww
L
hpk
11
][
][][][][][
0][0][
(2.26)
3. Sự học của mạng nơron mờ
3.1. Hàm chi phí
5
Mạng nơron nhân tạo
Đặt T
p
= (T
p1
, T
p2
, …, T
pno
) là vectơ đích mờ thứ nguyên n
o
tương ứng với vectơ
vào mờ X
p
. Chúng ta định nghĩa hàm chi phí cho các tập mức h của dữ liệu ra mờ O
pk
từ
chức năng ra k và tương ứng với đích mờ T
pk
như sau :
U
pkh
L
pkhpkh
eee +=
(3.1)
Trong đó :
2
)][]([
2L
hpk
L
hpk
L
pkh
OT
he
−
=
(3.2)
2
)][]([
2U
hpk
U
hpk
U
pkh
OT
he
−
=
(3.3)
Trong hàm chi phí (3.1),
L
pkh
e
và
U
pkh
e
, theo thứ tự, có thể được coi như là các lỗi
bình phương của giới hạn dưới và giơí hạn trên của các tập mức h. Trong công thức này,
các lỗi bình phương này được đánh trọng số bởi các giá trị của h trong (3.2) và (3.3).
Hàm chi phí cho các tập mức h là của vectơ ra mờ O, và vectơ đích mờ T
p
được định
nghĩa như sau :
∑
=
=
no
k
pkhph
ee
1
(3.4)
Hàm chi phí cho bộ (X
p
, T
p
) thu được là :
∑
=
h
php
ee
(3.5)
3.2. Thuật toán học
Ta xây dựng một thuật toán học cho mạng nơron mờ từ hàm chi phí e
ph
được định
nghĩa ở trên.Vì các trọng số mờ tam giác định xác định bởi ba tham số của nó nên chúng
ta xây dựng một quy tắc cập nhật cho mỗi tham số. Ký hiệu các trọng số mờ tam giác là
W
kj
, W
ji
và các ngưỡng mờ tam giác là Θ
k
, Θ
j
như sau :
),,(
U
kj
C
kj
L
kjkj
wwwW =
),,(
U
ji
C
ji
L
jiji
wwwW =
(3.6)
),,(
U
k
C
k
L
kk
θθθ
=Θ
),,(
U
j
C
j
L
jj
θθθ
=Θ
(3.7)
Trong đó các chỉ số L, C, U lần lượt là giới hạn dưới, giới hạn trung bình và giới hạn trên
của các số mờ tam giác. Hơn nữa, giả sử rằng W
kj
, W
ji
, Θ
k
, Θ
j
là đối xứng:
6
Mạng nơron nhân tạo
2
U
kj
L
kj
C
kj
ww
w
+
=
2
U
ji
L
ji
C
ji
ww
w
+
=
(3.8)
2
U
k
L
k
C
k
θθ
θ
+
=
2
U
j
L
j
C
j
θθ
θ
+
=
(3.9)
Trước hết, ta thảo luận về sự học của trọng số mờ tam giác W
kj
giữa chức năng ẩn
thứ j và chức năng ra thứ k. Theo cách của Rumelhart [8], ta có thể viết số lượng điều
chỉnh của mỗi tham số sử dụng hàm chi phí e
ph
như sau:
)1(.)( −∆+
∂
∂
−=∆ tw
w
e
tw
L
kj
L
kj
ph
L
kj
αη
(3.10)
)1(.)( −∆+
∂
∂
−=∆ tw
w
e
tw
U
kj
U
kj
ph
U
kj
αη
(3.11)
ở đó
η
là hằng số học,
α
là hằng số động lượng và t chỉ số lượng các điều chỉnh.
Vì chúng ta đã giả sử rằng W
kj
là đối xứng nên
C
kj
w
được xác định bởi công thức (3.8).
Đạo hàm trong (3.10) và (3.11) có thể được viết như sau:
L
kj
U
hkj
U
hkj
ph
L
kj
L
hkj
L
hkj
ph
L
kj
ph
w
W
W
e
w
W
W
e
w
e
∂
∂
∂
∂
+
∂
∂
∂
∂
=
∂
∂ ][
.
][
][
.
][
(3.12)
U
kj
U
hkj
U
hkj
ph
U
kj
L
hkj
L
hkj
ph
U
kj
ph
w
W
W
e
w
W
W
e
w
e
∂
∂
∂
∂
+
∂
∂
∂
∂
=
∂
∂ ][
.
][
][
.
][
(3.13)
Vì W
kj
là số mờ tam giác đối xứng nên các quan hệ sau đây được giữ cho tập mức
h của nó
]][,][[][
U
hkj
L
hkjhkj
WWW =
:
2
.)
2
1(][
h
w
h
wW
U
kj
L
kj
L
hkj
+−=
(3.14)
)
2
1.(
2
][
h
w
h
wW
U
kj
L
kj
U
hkj
−+=
(3.15)
Vì thế, (3.12) và (3.13) có thể được viết lại như sau:
2
.
][
)
2
1.(
][
h
W
e
h
W
e
w
e
U
hkj
ph
L
hkj
ph
L
kj
ph
∂
∂
+−
∂
∂
=
∂
∂
(3.16)
)
2
1.(
][
2
.
][
h
W
e
h
W
e
w
e
U
hkj
ph
L
hkj
ph
U
kj
ph
−
∂
∂
+
∂
∂
=
∂
∂
(3.17)
7
Mạng nơron nhân tạo
Các quan hệ này minh hoạ cho việc các tín hiệu lỗi
L
hkj
ph
W
e
][∂
∂
,
U
hkj
ph
W
e
][∂
∂
của tập
mức h truyền tới mức 0 của trọng số mờ W
kj
để thay đổi
U
kj
L
kj
ww ,
như thế nào?
Trọng số mờ W
kj
được cập nhật bởi quy tắc sau đây:
)()()1( twtwtw
L
kj
L
kj
L
kj
∆+=+
(3.18)
)()()1( twtwtw
U
kj
U
kj
U
kj
∆+=+
(3.19)
2
)1()1(
)1(
+++
=+
twtw
tw
U
kj
L
kj
C
kj
(3.20)
Sau khi điều chỉnh W
kj
theo (3.19) – (3.20), giới hạn cận dưới của nó có thể lớn hơn giới
hạn cận trên. Trong trường hợp này, chúng ta sử dụng phương pháp tìm kiếm kinh
nghiệm đơn giản sau đây:
)}1(),1(min{:)1( ++=+ twtwtw
U
kj
L
kj
L
kj
(3.21)
)}1(),1(max{:)1( ++=+ twtwtw
U
kj
L
kj
U
kj
(3.22)
Trọng số mờ W
ji
và Θ
k
, Θ
j
được thay đổi tương tự như W
kj
.
Giả sử có m cặp dữ liệu vào – ra (X
p
, T
p
), p = 1, 2, …, m của các vectơ được đưa
ra làm dữ liệu huấn luyện. Và có n giá trị của h (h
1
, h
2
, …, h
n
) được sử dụng cho việc học
của mạng nơron mờ. Trong trường hợp này, giải thuật học của mạng nơron mờ được viết
như sau:
Thuật toán học:
Bước 0. Khởi tạo các trọng số mờ và các ngưỡng mờ
Bước 1. Lặp bước 2 với h = h
1
, h
2
, …, h
n
Bước 2. Lặp lại các thủ tục sau đây với p = 1, 2, …, m
(1) Tình truyền thẳng: Tính tập mức h của vectơ ra mờ O
p
tương ứng với
vectơ vào mờ X
p
.
(2) Qui hồi: Điều chỉnh các trọng số mờ và ngưỡng mờ sử dụng hàm chi
phí e
ph
.
Bước 3. Nếu điều kiện dừng không thoả mãn, quay lại bước 1.
8
Mạng nơron nhân tạo
4. Mô phỏng việc tính toán:
Trong phần này chúng tôi minh họa giải thuật học bằng một số ví dụ. Trong tất
cả các ví dụ chúng tôi sử dụng một số giá trị mặc định như sau:
(1) số đơn vị ẩn là 6
(2) Giá trị của h = 0.2, 0.4, 0.6, 0.8, 1.0
(3) Điều kiện dừng là 10.000 lần lặp
(4) Hằng số của việc học η = 0.5
(5) Vận tốc huấn luyện: α = 0.9
(6) Khởi tạo giá trị của trọng số mờ và ngưỡng mờ: Là một số thực ngẫu nhiên trong
khoảng [-1,1]
4.1. Ví dụ 1
Trong ví dụ này, ta áp dụng một phương pháp được đề xuất để thực hiện xấp xỉ
hoá ánh xạ phi tuyến tính của các số mờ. Ta sẽ giả định rằng không gian input và output
của ánh xạ này là các lớp nằm trong đoạn [0, 1]. Do đó ta có thể miêu tả mỗi cặp input-
output (X
p
, T
p
) mờ trong không gian như hình 8.
Bốn hình chữ nhật trong hình 8 thể hiện những tập hợp mức- h với h=0.2, 0.4, 0.6,
0.8 của X
p
x T
p
, với X
p
x T
p
là sản xuất Cartesian của input mờ X
p
và chuẩn mờ T
p
.
Ta giả sử rằng có ba cặp input-output mờ trong hình 9 là những dữ liệu huấn
luyện. Một mạng nơron mờ với một lớp tín hiệu vào đơn, sáu lớp giữa và một lớp tín hiệu
ra đơn được huấn luyện bởi giải thuật học đã được đề xuất. Năm tập hợp mức-h của mỗi
cặp input-output trong hình 9 được sử dụng cho việc học của mạng nơron mờ. Các tín
hiệu ra mờ từ huấn luyện mạng nơron mờ được biểu diễn trong hình 10 với ba tín hiệu
vào mờ được sử dụng trong việc học và hai tín hiệu vào mờ mới. Từ so sánh giữa hình 9
và 10, ta có thể đưa ra các dữ liệu huấn luyện mờ phù hợp cũng như những quan sát tổng
quát tốt nhất cho tín hiệu vào mờ mới.
4.1. Ví dụ 2
Vì các số thực có thể được xem như trường hợp đặc biệt của số mờ, nên mạng
nơron mờ đã đề xuất có thể thực hiện các tín hiệu vào thực cũng như các tín hiệu vào mờ
(input fuzzy). Trong ví dụ này, ta áp dụng phương pháp đã nêu để xấp xỉ hàm mờ không
9
Mạng nơron nhân tạo
tuyến tính (ánh xạ một số thực tới một số mờ). Dữ liệu huấn luyện trong ví dụ này bao
gồm các cặp tín hiệu vào thực x
p
và các chuẩn mờ T
p.
Mỗi cặp này được miêu tả trong
không gian input-output như trong hình 11. Tam giác trong hình 11 là hàm thuộc của
chuẩn mờ tam giác T
p
. Ta giả sử rằng có 6 cặp tín hiệu vào và ra thực như trong hình 12
là các dữ liệu huấn luyện. Sử dụng những dữ liệu huấn luyện đó, ta đã huấn luyện một
mạng nơron mờ với một lớp tín hiệu vào đơn, sáu lớp bên trong và một lớp tín hiệu ra
đơn bằng cách sử dụng giải thuật học đã đề xuất. Tín hiệu vào thực x
p
được coi là một số
mờ với hàm thuộc như sau: Tín hiệu ra mờ từ huấn luyện mạng nơron mờ trong hình 13
cho ta 11 tín hiệu vào thực: x=0.0, 0.1, 0.2,…,1.0. So sánh hình 12 và 13 ta có thể đưa ra
các dữ liệu huấn luyện phù hợp và xem xét một cách tổng quát các tín hiệu vào thực mới.
4.3. Ví dụ 3
Trong ví dụ này, ta áp dụng phương pháp đã nêu để xấp xỉ các luật if-then mờ nhờ sử
dụng một mạng nơron mờ. Cho trước 3 luật if-then mờ như sau:
If x small then y is small
If x medium then y is medium
If x large then y is large
Hàm thuộc của các giá trị ngôn ngữ: "small", "medium" và "large" được cho trong
Hình 14. Từ những lụât mờ ở trên ta có thể đưa ra dữ liệu huấn luyện như sau:
{(X
p
,T
p
)} = {(small, small), (medium, medium), large, large}.
Sử dụng dữ liệu huấn luyện trong hình 15, ta huấn luyện mạng nơron mờ có 1 lớp tín
hiệu vào, 6 lớp ẩn và 1 lớp tín hiệu ra. Tín hiệu ra mờ từ mạng nơ ron đã được huấn luyện
biểu diễn trong hình 16 đối với dữ liệu huấn luyện. Việc so sánh hai hình 15 và 16 ta có
thể đưa ra các dữ liệu huấn luyện phù hợp. Tín hiệu ra mờ cho những tín hiệu vào mới
“medium small” và “medium large” được biểu diễn trong hình 17. So sánh hình 15 và 17
ta có thể đưa ra những nhận xét tổng quát nhất cho tín hiệu vào mới. Hàm thuộc của tín
hiệu ra tương ứng với tín hiệu vào mới được biểu diễn trong hình 18. Hai tín hiệu ra mờ
trong Hình 18 có thể được thông dịch là "medium small" và "medium large", do đó ta thu
được hai luật if-then mờ như sau:
If x medium small then y is medium small
If x medium large then y is medium large
10
Mạng nơron nhân tạo
Cần chú ý rằng 2 luật if-then mờ trùng với dự đoán của ba luật mờ đã cho. Do đó, ta có
thể kết luận rằng để huấn luyện mạng nơ ron mờ cần tìm kiếm sự tồn tại các luật if-then
mờ như trong ví dụ này.
4.4. Ví dụ 4
Cũng như trong ví dụ 3, trong ví dụ này ta áp dụng phương pháp đã nêu để xấp xỉ các
luật if-then mờ. Giả sử có 9 luật như dưới đây:
If x1 is small and x2 is small then y is large
If x1 is small and x2 is medium then y is medium large
If x1 is small and x2 is large then y is medium
If x1 is medium and x2 is small then y is medium large
If x1 is medium and x2 is medium then y is small
If x1 is medium and x2 is large then y is small
If x1 is large and x2 is small then y is medium
If x1 is large and x2 is medium then y is small
If x1 is large and x2 is large then y is small
Các giá trị ngôn ngữ trong các luật if-then ở trên giống như trong ví dụ 3. Các luật này
được thể hiện trong hình 19. Chi tiết được minh họa trên các hình từ 19 đến 21. Vì chỉ có
9 luật if-then mờ ngoài 25 luật đã cho, 16 luật if-then mờ còn lại để khuyết trong bảng.
Ta sẽ tìm cách hoàn thành bảng các luật mờ bằng cách chia một trong năm giá trị ngôn
ngữ thành chuỗi của mỗi luật if-then mờ khuyết.
Sử dụng 9 cặp tín hiệu vào-ra được chứa trong các luật if-then mờ đã cho, ta có thể
huấn luyện một mạng nơ ron mờ với 2 lớp tín hiệu vào, 6 lớp trong và một lớp tín hiệu ra
đơn bằng cách sử dụng thuật toán đã đề xuất. Sau đó, ta tính toán được tín hiệu ra mờ từ
mạng nơ ron mờ đã được huấn luyện dựa vào việc kết hợp các ngôn ngữ tín hiệu vào
tương ứng để tìm ra các luật if-then khuyết cho trước. Các tín hiệu ra mờ tương ứng với
một chuỗi luật if-then mờ khuyết. Mỗi tín hiệu ra mờ được so sánh với một trong năm giá
trị ngôn ngữ và lựa chọn chuỗi luật if-then tương ứng sao cho phù hợp nhất. Ví dụ, ta có
luật khuyết sau:
If x
1
is medium large and x
2
is medium large then y is?
11
Mạng nơron nhân tạo
“?” là một trong 5 giá trị ngôn ngữ. Để quyết định tiếp luật if-then mờ, ta đưa ra vector
tín hiệu vào mờ (medium large, medium large) để huấn luyện mạng nơ ron mờ. Tín hiệu
ra mờ từ mạng đã được huấn luyện được thể hiện trong hình 20. Tín hiệu ra mờ này được
so sánh với mỗi giá trị ngôn ngữ sử dụng hàm định giá e
p
. Ta có thể tính giá trị cho e
p
bằng cách coi mỗi giá trị ngôn ngữ là một chuẩn mờ. Sau đó, giá trị “small” được chọn là
một kết quả cho luật if-then mờ khuyết vì ta sẽ lấy giá trị nhỏ nhất cho chuẩn mờ “small”.
5. Kết luận
Trong bài báo này, chúng ta đã đưa ra một thuật toán học với các trọng số mờ tam giác
đối xứng thực hiện trên mạng nơron mờ truyền thẳng ba lớp mà các quan hệ vào-ra của
nó được xác định theo nguyên lý mở rộng của Zadeh. Tính hiệu quả của thuật toán học
được minh họa thông qua các ví dụ mô phỏng trên các số liệu khác nhau. Bài báo này là
một trong những cố gắng ban đầu nhằm đưa ra thuật toán học trên các mạng nơron mờ
với tín hiệu vào mờ, các mục tiêu mờ và các trọng số mờ. Đây cũng là điểm khởi đầu có
hiệu quả khi xem xét việc mở rộng sang các trọng số mờ tổng quát hơn.
12