Tải bản đầy đủ (.pdf) (5 trang)

Tự động nhận dạng điều chế dưới tác động của nhiễu pha-đinh đa đường sử dụng kỹ thuật học sâu

Bạn đang xem bản rút gọn của tài liệu. Xem và tải ngay bản đầy đủ của tài liệu tại đây (1.27 MB, 5 trang )

Hội nghị Quốc gia lần thứ 24 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2021)

Tự động nhận dạng điều chế dưới tác động của
nhiễu pha-đinh đa đường sử dụng kỹ thuật học sâu
Lê Hà Khánh1, Đoàn Văn Sáng2, Hồng Văn Phúc1 và Đào Thị Thủy1
1
Viện Tích hợp hệ thống, Học viện Kỹ thuật Quân sự
Số 236 Hoàng Quốc Việt, Quận Bắc Từ Liêm, Hà Nội
2Học

viện Hải Quân, Nha Trang, Khánh Hòa

Email:
Gần đây, học sâu (DL: Deep learning) là một nhánh của
máy học và đã đạt được thành cơng đáng kể vì khả năng
phân loại tuyệt vời của nó. DL đã được áp dụng trong nhiều
lĩnh vực như phân loại hình ảnh, nhận dạng khn mặt, và xử
lý ngôn ngữ tự nhiên. Một số mạng DL điển hình như mạng
nơ-ron tích chập (CNN: Convolutional Neural Network),
mạng dư (RNN: Residual Neural Network) hay mạng
CLDNN (Convolutional Long Short-term Deep Neural
Network) đã được áp dụng trong AMC [1]. Độ chính xác
phân loại của các phương pháp dựa trên DL đã được chứng
minh là cao hơn các phương pháp phân loại khác, đặc biệt là
khi tỷ lệ tín hiệu trên nhiễu (SNR) thấp.

Tóm tắt— Tự động phân loại điều chế tín hiệu (Automatic
Modulation Classification: AMC) đã được nghiên cứu trong
hơn một phần tư thế kỷ. Tuy nhiên, việc thiết kế một bộ phân
loại hoạt động tốt trong môi trường nhiễu và các điều kiện
khác nhau là rất khó khăn. Gần đây, các phương pháp học tập


sâu được áp dụng cho các hệ thống AMC và đạt được các kết
quả cao trong việc cải thiện độ chính xác trong phân loại tín
hiệu. Trong bài viết này, chúng tôi khảo sát các mô hình phân
loại ứng dụng các mạng nơ rơn tích chập để phân loại 26 dạng
tín hiệu điều chế dưới tác động của năm loại môi trường nhiễu
pha-đinh khác nhau với SNR từ -20 dB đến +18 dB. Bài báo
trình bày phương pháp nhận dạng tín hiệu dựa trên các mơ
hình mạng nơ ron tích chập và khảo sát độ chính xác khi nhận
dạng tín hiệu điều chế. Các kết quả mơ phỏng cho độ chính xác
cao so với các mơ hình phân loại tín hiện trong điều kiện tín
hiệu chỉ chịu tác động của nhiễu tạp âm trắng. Một số mơ hình
như ResNet, SqueezeNet cho độ chính xác cao hơn 97,5% cho
SNR > +2 dB.

Bảng I: Tập dữ liệu HisarMod2019.1 [2].
Loại điều chế

Keywords—Tự động phân loại điều chế, học sâu, mạng nơ
ron tích chập (CNN).

Analog

I. GIỚI THIỆU
Tự động phân loại tín hiệu điều chế (AMC: Automatic
Modulation Classification) là một quy trình để xác định sơ
đồ điều chế của tín hiệu vô tuyến. Đây là một bước trung
gian giữa phát hiện tín hiệu và giải điều chế. Tuy nhiên, rất
khó để thiết kế một bộ phân loại tín hiệu hoạt động tốt trong
các điều kiện nhiễu khác nhau, đặc biệt là ảnh hưởng nhiễu
pha đinh đa đường. Các thuật toán AMC đã được nghiên cứu

rộng rãi trong hơn 20 năm qua. Nhìn chung, các thuật tốn
AMC cổ điển có thể được chia thành hai loại: dựa trên tỷ lệ
hợp lệ (LB: Likelihood-based) và dựa trên các đặc trưng (FB
Feature based). Các phương thức LB dựa trên khả năng của
tín hiệu nhận được và các phương thức FB phụ thuộc vào
thiết kế phân loại và phân loại các đặc trưng tín hiệu. Phương
pháp phân loại điều chế LB là so sánh giá trị tỷ lệ khả năng
của tín hiệu nhận được trong nhóm điều chế được xem xét.
Nó cũng đã được sử dụng trong mơi trường đa kênh để ước
tính các tham số không xác định và cung cấp kết quả nổi bật
để phân loại điều chế. Các phương thức LB cần biết được
các tham số kênh và tính tốn trở nên phức tạp khi các tham
số không xác định được. Mặc dù các phương thức LB có thể
đạt được giải pháp tối ưu, nhưng chúng phải chịu sự phức tạp
tính tốn cao và yêu cầu thông tin trước từ các máy phát.
Ngược lại, các phương thức FB có thể có được các giải pháp
với mức độ độ phức tạp tính tốn nhỏ hơn nhiều và không
phụ thuộc vào thông tin tiên nghiệm. Hiệu suất của các
phương thức FB chủ yếu phụ thuộc vào bộ đặc trưng được
trích xuất. Các đặc trưng này phải được thiết kế thủ công để
phù hợp với bộ điều chế và môi trường kênh tương ứng và có
thể khơng khả thi trong các điều kiện nhiễu khác. Hơn nữa,
việc tìm kiếm các đặc trưng hiệu quả địi hỏi sự xem xét lớn
về mặt dữ liệu.

ISBN 978-604-80-5958-3

FSK

PAM


PSK

QAM

Các kiểu điều chế
AM-DSB
AM-SC
AM-USB
AM-LSB
FM
PM
2-FSK
4-FSK
8-FSK
16-FSK
4-PAM
8-PAM
16-PAM
BPSK
QPSK
8-PSK
16-PSK
32-PSK
64-PSK
4-QAM
8-QAM
16-QAM
32-QAM
64-QAM

128-QAM
256-QAM

Trong bài báo này, chúng tôi sử dụng một tập dữ liệu
HisarMod2019.1 trong bài báo [2], bao gồm 26 dạng tín hiệu
điều chế thuộc 5 nhóm điều chế khác nhau và chịu ảnh
hưởng của 5 loại nhiễu pha đinh với các điều kiện khác nhau.
Bộ dữ liệu bao gồm 26 loại điều chế từ 5 nhóm điều chế
khác nhau là tín hiệu tương tự, tín hiệu điều tần FSK, điều
chế xung biên độ PAM, điều chế pha PSK, và điều chế pha
cầu phương QAM. Tất cả các loại điều chế được liệt kê trong
Bảng I. Tập dữ liệu công khai mới này cung cấp tín hiệu

267


Hội nghị Quốc gia lần thứ 24 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2021)

không dây trong các điều kiện kênh lý tưởng, tĩnh, Rayleigh,
Rician (k = 3) và Nakagami-m (m = 2). Do đó, có thể quan
sát các điều kiện kênh thực tế hơn đối với các phương pháp
AMC dựa trên DL được đề xuất. Trong bộ dữ liệu có 1500
tín hiệu có chiều dài 1024 mẫu I / Q đối với từng loại điều
chế, tỷ lệ mức tín hiệu trên nhiễu (signal to noise ratio: SNR)
là từ -20 dB đến +18 dB, bước cách 2 dB. Tổng cộng, bộ dữ
liệu có 780.000 mẫu tín hiệu. Khi tạo tín hiệu, tốc độ
oversampling được chọn là 2 và sử dụng bộ lọc cosin nâng
với hệ số roll-off = 0.35.

vanishing gradient. Nhờ việc tổng hợp các đặc trưng giúp

giảm sự mất mát thông tin cùng với độ phức tạp tính tốn.
Chúng tơi sử dụng cấu trúc mạng ResNet 18 làm mơ hình
học sâu trong việc phân loại tín hiệu. Sau lớp tích chập đầu
tiên, phép gộp cực đại (max-pooling) được sử dụng để trích
xuất các đặc trưng mức thấp, và sau lớp tích chập cuối cùng,
việc lấy gộp trung bình để tất cả các đặc trưng được trích
xuất đều quan trọng như nhau để ra quyết định. Hàm kích
hoạt ReLU (Rectified Linear Unit): r ( x ) = max ( 0, x ) được
sử dụng để tăng quá trình huấn luyện. Sử dụng dropout với
xác suất là 0,5 để tránh hiện tượng overfitting cho huấn luyện
dữ liệu.

Trong bài viết trình bày và đánh giá những lợi thế và bất
lợi các kỹ thuật sử dụng trong từng mơ hình, rất cần thiết để
nghiên cứu trong tương lai về phân loại điều chế dựa trên
DL. Nhóm tác giả thực hiện phân loại điều chế 26 tín hiệu vơ
tuyến với các mơ hình ứng dụng các mạng nơ rơn khác nhau,
sử dụng tập dữ liệu HisarMod2019. Một số mơ hình như
ResNet, SqueezeNet cho độ chính xác cao hơn 97,5% cho
SNR > +2 dB. Ngược lại một số mơ hình khác như
GoogleNet cho độ chính xác thấp, đạt cao nhất là 56,76% tại
+18 dB.

Input

Shortcut path

Weight Layer

H ( xl −1 )


Cấu trúc bài báo được trình bày gồm 4 phần. Phần I là
giới thiệu và mục tiêu nghiên cứu. Phần II trình bày chi tiết
các mơ hình cấu trúc mạng nơ ron ứng dụng cho phân loại
điều chế tín hiệu. Các kết quả khảo sát phân loại tín hiệu,
tính khả thi của các mơ hình kiến trúc mạng đề xuất được
trình bày trong phần III. Cuối cùng là phần IV trình bày kết
luận và hướng nghiên cứu tiếp theo của bài báo.

ReLu

Weight Layer

F ( xl −1 )

ReLu

+

Output

xl

Hình 1: Khối Residual [1].

II. CẤU TRÚC MẠNG HỌC SÂU
Các nghiên cứu gần đây của mạng học sâu tập trung vào
việc cải thiện độ chính xác phân loại tín hiệu. Trong bài báo
này, chúng tơi nghiên cứu hiệu suất phân loại điều chế tín
hiệu của các dạng cấu trúc mạng nơ ron khác nhau: mạng

ResNet18, mạng MobileNet_V2, mạng GoogLeNet, mạng
SqueezeNet, mạng Rep_VGG.

B. Mạng SqueezeNet
Mạng SqueezeNet được đề xuất vào năm 2016 [5] với
mục đích tìm kiếm cấu trúc mạng CNN với các tham số ít
hơn, nhưng có độ chính xác tương đương với một số mơ
hình nổi tiếng khác. Điều này cho phép giảm hàm lượng
tính tốn và tốc độ được cải thiện tương đối do số lượng
tham số ít đi. Cấu trúc mạng SqueezeNet được mơ tả như
Hình 2, bắt đầu với một lớp tích chập, tiếp theo là 8 khối (từ
fire2- fire9) và cuối cùng là một khối tích chập. Số lượng bộ
lọc được tăng dần từ đầu mạng đến cuối mạng. SqueezeNet
sử dụng phép gộp cực đại (max-pooling) với bước trượt
(stride) bằng 2. Chúng ta có thể thấy ở Hình 2, các lớp
"Squeeze" là các lớp tích chập được tạo thành từ các bộ lọc
1×1 và các lớp "mở rộng" này là các lớp tích chập với các
bộ lọc 1×1 và 3×3. Bằng cách giảm số lượng bộ lọc trong
lớp "squeeze" vào lớp "mở rộng", làm giảm số lượng kết nối
vào các bộ lọc 3×3 này, do đó làm giảm tổng số tham số.
Tác giả của mơ hình SqueezeNet gọi kiến trúc cụ thể này là
"mơ-đun lửa" và nó đóng vai trị là khối xây dựng cơ bản
cho kiến trúc Squeezenet.

A. Mạng ResNet18
Khi mạng nơ ron phát triển sâu hơn, hiệu suất học tập của
nó bị thách thức do các vấn đề như vanishing gradient (mạng
nơ ron bị vơ hiệu) hay overfitting (mơ hình quá phù hợp với
dữ liệu huấn luyện nhưng lại kém hiệu quả với dữ liệu chưa
biết). Do đó, việc huấn luyện và kiểm tra độ chính xác bắt

đầu suy giảm khi mạng nơ ron đạt đến độ sâu nhất định. Việc
suy giảm kết quả độ chính xác kiểm tra do các vấn đề từ việc
tăng độ phức tạp của mạng nơ ron. Sự giảm chính xác từ q
trình huấn luyện do vanishing gradient làm cho q trình tối
ưu hố kém khả thi hơn, dẫn đến khả năng hội tụ đến mức tối
thiểu cho khả năng ước lượng giảm.
Cấu trúc mạng ResNet được đưa ra trong ImageNet và
COCO 2015 [3]. Nó đã giải quyết vấn đề suy giảm độ chính
xác của mạng nơ ron sâu và là một lựa chọn rộng rãi cho các
nhiệm vụ học máy. Mơ hình ResNet [1] và DenseNet [1, 4]
gần đây đã góp phần giải quyết các vấn đề trên bằng cách tạo
các đường dẫn tắt giữa các lớp khác nhau trong mạng. Một
khối xây dựng của mạng ResNet có thể được biểu thị bằng
phương trình trong Hình 1, trong đó đầu vào là xl −1 , một

C. Mạng MobileNet
Mạng MobileNet là một mơ hình của nhóm tác giả đến
từ Google, cấu trúc mạng được đề xuất cho phép xây dựng
một mạng nhỏ phù hợp với các điều kiện hạn chế về tài
nguyên (thời gian, kích thước) và được ứng dụng trên các
thiết bị nhỏ gọn có tài nguyên hạn chế [6]. MobileNet chủ
yếu tập trung vào việc tối ưu hóa độ trễ nhưng cũng tập
trung cho các mạng nhỏ trong việc cải thiện tốc độ. Cấu trúc
mạng MobileNet được xây dựng từ việc sử dụng cách tính
tích chập có tên là Depthwise Separable Convolution (DSC)

hàm ánh xạ xl = H ( xl −1 ) được sử dụng cho hàm

F ( xl −1 ) = H ( xl −1 ) − xl −1 , hàm F ( xl −1 ) gọi là hàm dư. Cấu
trúc thắt cổ chai của mạng ResNet giúp loại bỏ vấn đề độ

phức tạp tính tốn, và thành phần đường nối tắt giúp loại bỏ

ISBN 978-604-80-5958-3

xl −1

268


Hội nghị Quốc gia lần thứ 24 về Điện tử, Truyền thơng và Cơng nghệ Thơng tin (REV-ECIT2021)

để giảm kích thước mơ hình và giảm độ phức tạp tính tốn.
DSC được chia làm hai phần: tích chập theo chiều sâu (DC:
Depthwise Convolution) và tích chập theo điểm (PC:
Pointwise Convolution) [6]. Sau mỗi lớp tích chập
MobileNet sẽ sử dụng hàm chuẩn hóa theo cụm (BN: Batch
Normalization) và hàm kích hoạt ReLu.

Khối Inception bao gồm bốn nhánh song song với nhau.
Ba nhánh đầu sử dụng các tầng tích chập với kích thước cửa
sổ trượt lần lượt là 1×1, 3×3, và 5×5 để trích xuất thơng tin
từ các vùng khơng gian có kích thước khác nhau. Hai nhánh
giữa thực hiện phép tích chập 1×1 trên dữ liệu đầu vào để
giảm số kênh đầu vào, từ đó giảm độ phức tạp của mơ hình.
Nhánh thứ tư sử dụng một tầng gộp cực đại (max-pooling)
kích thước 3×3, theo sau là một tầng tích chập 1×1 để thay
đổi số lượng kênh. Cả bốn nhánh sử dụng bộ lọc phù hợp để
đầu vào và đầu ra của khối có cùng chiều cao và chiều rộng.
Cuối cùng, các đầu ra của mỗi nhánh sẽ được nối lại theo
chiều kênh để tạo thành đầu ra của cả khối. Các tham số

thường được tinh chỉnh của khối Inception là số lượng kênh
đầu ra mỗi tầng. Mơ hình GoogleNet là tập hợp các khối
Inception lại với nhau để tạo thành một mạng hoàn chỉnh.

Conv1
Maxpool/2
fire2
fire3

fire4

Ghép nối

Maxpool/2
fire5

3x3 Conv

5x5 Conv

1x1 Conv

1x1 Conv

1x1 Conv

3x3
Maxpooling

1x1 Conv


fire6
Đầu vào

fire7

Hình 3: Cấu trúc khối Inception [7].

Maxpool/2

E. Mạng RepVGG
Với các yêu cầu đòi hỏi ngày càng cao đối với học sâu,
các mơ hình mạng CNN được thiết kế ngày càng phức tạp
hơn ResNet, Inception, MobileNet,… mang lại độ chính xác
cao nhưng đồng thời cũng tồn tại những bất lợi. Sự phức tạp
mơ hình khiến việc xây dựng mơ hình trở nên khó khăn hơn
đồng thời cũng dẫn dến việc suy luận chậm hơn hay làm
tăng việc chiếm tài nguyên hệ thống. Xuất phát từ mơ hình
mạng VGG [8] với kiến trúc đơn giản chỉ gồm các lớp tích
chập Conv, ReLu và pooling. Mơ hình mạng RepVGG được
cải tiến từ mạng VGG nhằm sở hữu cấu trúc mạng đơn giản
mà vẫn đảm bảo hiệu quả [9]. Cấu trúc các khối RepVGG
như Hình 4.

fire8
fire9

conv10
Hình 2: Khối SqueezeNet [5].


Giả sử M là số lượng đầu vào của kênh, N là số lượng
đầu ra của kênh, Dk là kích thước bộ lọc (kernel), Df là kích
thước của đặc trưng tín hiệu.
Khi đó, chi phí tính tốn của DC là:
(1)
Dk  Dk  M  D f  D f

Stride = 2

Chi phí tính tốn cho PC:
M  N  Df  Df

(2)

Tổng chi phí tính tốn của DSC là:
Dk  Dk  M  D f  D f + M  N  D f  D f

(3)

Dk  Dk  M  N  D f  D f

3x3

3x3

=

1
1
+

N D2k

Stride = 2

3x3

1x1

3x3

1x1

3x3

1x1

3x3

+

+

(5)

D. Mạng GoogLeNet
Mơ hình mạng GoogleNet được đưa ra vào năm 2014 [7]
và giành được chiến thắng ở cuộc thi ImageNet. Mơ hình
tập trung vào việc giải quyết vấn đề kích thước nào của bộ
lọc tích chập là tốt nhất, việc kết hợp các bộ lọc có kích
thước khác nhau đơi khi sẽ mang lại hiệu quả tốt. Khối tích

chập cơ bản trong mơ hình GoogleNet được gọi là Inception
như ở Hình 3.

ISBN 978-604-80-5958-3

1x1

+

Nếu khơng sử dụng DSC mà chỉ sử dụng phép tính chập
bình thường thì chi phí tính tốn là:
(4)
Dk  Dk  M  N  D f  D f
Do đó, chi phí tính tốn sẽ giảm:
Dk  Dk  M  D f  D f + M  N  D f  D f

3x3

3x3

+

(a) RepVGG tranning
Convolution

(b) RepVGG inference
ReLu

Identity


Hình 4: Cấu trúc khối RepVGG [9].

269


Hội nghị Quốc gia lần thứ 24 về Điện tử, Truyền thơng và Cơng nghệ Thơng tin (REV-ECIT2021)

Mơ hình RepVGG được chia thành 5 phần, trong mỗi
phần sẽ gồm các khối tương tự nhau về cấu trúc. Các lớp
đầu tiên trong các khối gồm các lớp Conv có bước trượt
bằng 2 để thực hiện down-sampling.
Trong khối training (Hình 4A), khi tín hiệu đầu vào
được truyền vào từng đoạn, tín hiệu sẽ được đi qua đồng
thời 2 lớp Conv3x3 và Conv1x1 với bước trượt bằng 2, sau
đó đầu ra của hai lớp này sẽ được cộng lại với nhau và đi
qua một lớp kích hoạt ReLU cuối cùng. Tín hiệu của khối
đầu tiên được tiếp tục sử dụng cho khối tiếp theo. Từ khối
thứ hai trở đi, cấu trúc các khối là giống hệt nhau. Các khối
đều gồm ba nhánh: Conv3x3 với bước trượt bằng 1,
Conv1x1 với bước trượt bằng 1, nhánh Identity sử dụng BN.
Đầu ra của các nhánh cũng sẽ được cộng lại với nhau trước
khi đưa qua một lớp ReLU như trong Hình 4a.
Trong khối inference (Hình 4b), cấu trúc của RepVGG
có sự thay đổi nhẹ. Thay vì sử dụng các nhánh Conv rồi
cộng các đầu ra lại với nhau như trong khối training thì
trong inference, tín hiệu đầu vào khi đi qua mơ hình sẽ chỉ
cịn đi qua các lớp Conv3x3 và lớp kích hoạt ReLU liên tiếp
(Hình 4B). Tuy nhiên đây là điểm phức tạp khi xây dựng mơ
hình này, vì các Conv3x3 khơng chỉ đơn giản là một
Conv3x3 với trọng số được lấy ngẫu nhiên. Trọng số của

các Conv3x3 trong inference sẽ được triển khai bằng cách
cộng các trọng số của các nhánh Conv3x3, Conv1x1 và
Identity (nếu có) trong training. Phương pháp này được gọi
là cấu trúc lại các tham số (reparameterization).
Các phần có cấu trúc khối tương tự nhau, điểm khác biệt
duy nhất của các phần đó là số lượng của các khối trong
phần đó.

đó mơ hình SqueezeNet cho kết quả phân loại cao nhất so
với các mơ hình khác (độ chính xác đạt được từ 97,5% cho
SNR > +8 dB).
Khi xem xét với ma trận nhầm lẫn (confusion matrix)
cho hiệu suất phân loại 26 tín hiệu của các mơ hình tại
SNR=10 dB được chỉ ra trong Hình 6 phân tích kỹ hơn. Từ
confusion matrix, có thể thấy một vài loại điều chế tín hiệu
mức thấp như AM, FM cho kết quả nhận dạng phân loại ít
bị nhầm lẫn, có độ chính xác trên 70% tại +10dB SNR và ít
bị lỗi hơn. Với các tín hiệu điều chế mức cao như PSK,
QAM cho độ chính xác dưới 60% tại +10dB SNR. Có thể
thấy các tín hiệu điều chế mức cao mặc dù cho tốc độ truyền
dẫn nhanh hơn, nhưng khi phân loại điều chế tín hiệu có
nhiều thay đổi khi tỷ lệ lỗi tăng, bởi thực tế sự phân bố
chịm sao tín hiệu sát nhau khi bị ảnh hưởng do tạp nhiễu
gây ra, làm giảm hiệu quả nhận dạng tín hiệu.

III. SO SÁNH VÀ THẢO LUẬN
Hình 5: So sánh các độ chính xác phân loại các mơ hình.

A. Tập dữ liệu
Các mơ hình sử dụng cùng một tập dữ liệu

HisarMod2019.1 [1] để phân loại điều chế tín hiệu. Tập dữ
liệu bao gồm 26 dạng điều chế tín hiệu như trong Bảng I với
SNR từ -20 dB đến +18 dB. Số lượng mẫu tín hiệu là
780 000 mẫu tín hiệu có độ dài 1024 cho 5 loại nhiễu khác
nhau trong các điều kiện kênh lý tưởng, tĩnh, Rayleigh,
Rician (k = 3) và Nakagami-m (m = 2), 520 000 mẫu tín
hiệu cho huấn luyện và dữ liệu cịn lại cho kiểm tra.
Các mơ hình huấn luyện sử dụng số vòng lặp (epoch) là
10, mini-batch size là 64, tốc độ học khởi tạo là 0,001. Thiết
bị sử dụng để mô phỏng là 3.70 GHz CPU, 32GB RAM, và
NVIDIA GeForce GTX 3060ti GPU.
B. Thảo luận kết quả
Trong phần này, nhằm đánh giá hiệu quả các mơ hình cấu
trúc mạng ResNet18, SqueezeNet, MobileNet, GoogleNet và
RepVGG, nhóm tác giả sử dụng mô phỏng trên Matlab làm
công cụ mô phỏng. Các kết quả so sánh độ chính xác của các
mơ hình thể hiện ở Hình 5.

a) ResNet18

Từ kết quả mơ phỏng, mơ hình GoogleNet cho kết quả
thấp nhất so với các mơ hình khác, độ chính xác cao nhất là
56,76% tại +18 dB. Với hai mơ hình MobileNet và
RepVGG cho kết quả tốt hơn so với GoogleNet lần lượt là
khoảng 10% và 15% cho SNR từ -20 dB đến 18 dB. Với ưu
điểm của mơ hình ResNet là bổ sung thơng tin tín hiệu và
ưu điểm của mơ hình SqueezeNet là giảm tham số tính tốn
làm tăng tốc độ mơ hình. Hai mơ hình đều cho kết quả phân
loại tín hiệu tốt ở đoạn SNR cao từ +2 dB đến +18 dB, trong


ISBN 978-604-80-5958-3

270


Hội nghị Quốc gia lần thứ 24 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2021)

cải thiện các mơ hình dựa trên các tính chất các mơ hình đã
có, từ đó đưa ra mơ hình giải quyết nhiều yêu cầu đầu ra hơn,
ví dụ vừa phân loại tín hiệu vừa nhận dạng tín hiệu điều chế.

b) MobileNet

Cuối cùng, với sự phát triển của cấu trúc mạng và phần
cứng tính tốn, phân loại điều chế dựa trên học sâu có thể
được áp dụng rộng rãi trong các hệ thống truyền thơng trong
tương lai. Hơn nữa, vì mơi trường vơ tuyến là đa dạng, một
số thông số môi trường thay đổi, gây ra sự không phù hợp
giữa dữ liệu huấn luyện và suy luận dữ liệu, chắc chắn làm
suy yếu hiệu suất phân loại nhận dạng tín hiệu, cần được tập
trung nghiên cứu hơn nữa.
REFERENCES
[1]
c) SqueezeNet

[2]

[3]
[4]
[5]


[6]

[7]
d) GoogleNet

[8]
[9]

[10]

[11]

[12]
f) RepVGG
Hình 6: Ma trận nhầm lẫn phân loại tín hiệu các mơ hình tại +10dB SNR.

[13]

KẾT LUẬN

Với sự phát triển của các mô hình học sâu áp dụng cho
nhiều lĩnh vực khác nhau, nhiều mơ hình học sâu đã được sử
dụng cho nhiệm vụ nhận dạng phân loại tín hiệu điều chế vơ
tuyến. Trong bài báo này, nhóm tác giả đã khảo sát các mơ
hình học sâu cho nhận dạng điều chế với 26 loại tín hiệu, với
tập dữ liệu mới dựa trên sự ảnh hưởng các loại nhiễu khác
nhau sát với điều kiện thực tế hơn. Độ chính xác phân loại
cao trên một dải SNR từ -20 dB đến +18 dB, tuỳ thuộc vào
cấu trúc của các mơ hình cho độ chính xác khác nhau. Trong

các nghiên cứu tiếp theo, nhóm tác giả tập trung nghiên cứu

ISBN 978-604-80-5958-3

[14]

[15]

271

Xiaoyu Liu; Diyu Yang; Aly El Gamal, “Deep Neural Network
Architectures for Modulation Classification,” 2017 51st Asilomar
Conference on Signals, Systems, and Computers
Kürşat Tekbıyık, Ali Rıza Ekti, Ali Gửrỗin, Gỹne Karabulut Kurt,
Cihat Keỗeci, Robust and Fast Automatic Modulation Classification
with CNN under Multipath Fading Channels,” 2020 IEEE 91st
Vehicular Technology Conference (VTC2020-Spring)
K. He, X. Zhang, S. Ren, and J. Sun, “Deep residual learning for
image recognition,” CoRR, vol. abs/1512.03385, 2015.
G. Huang, Z. Liu, and K. Q. Weinberger, “Densely connected
convolutional networks,” CoRR, vol. abs/1608.06993, 2016.
Iandola, Forrest N., Song Han, Matthew W. Moskewicz, Khalid
Ashraf, William J. Dally, and Kurt Keutzer. "SqueezeNet: AlexNetlevel accuracy with 50x fewer parameters and <0.5 MB model size."
Preprint,
submitted
November
4,
2016.
/>Sandler, M., Howard, A., Zhu, M., Zhmoginov, A. and Chen, L.C.
"MobileNetV2: Inverted Residuals and Linear Bottlenecks." In 2018

IEEE/CVF Conference on Computer Vision and Pattern Recognition
(pp. 4510-4520). IEEE.
Szegedy, Christian, Wei Liu, Yangqing Jia, Pierre Sermanet, Scott
Reed, Dragomir Anguelov, Dumitru Erhan, Vincent Vanhoucke, and
Andrew Rabinovich. "Going deeper with convolutions." In
Proceedings of the IEEE conference on computer vision and pattern
recognition, pp. 1-9. 2015.
Karen Simonyan and Andrew Zisserman, “Very deep convolutional
networks for large-scale image recognition,” arXiv:1409.1556, 2014.
Xiaohan Ding, Xiangyu Zhang, Ningning Ma, Jungong Han,
Guiguang Ding, Jian Sun, “RepVGG: Making VGG-style ConvNets
Great Again,” Computer Vision and Pattern Recognition (cs.CV);
Artificial Intelligence (cs.AI); Machine Learning (cs.LG)
arXiv:2101.03697
M. T. J. OShea, J. Corgan, and T. C. Clancy, “Convolutional radio
modulation recognition networks,” in International Conference on
Engineering Applications of Neural Networks, Springer, 2016, pp.
213–226.
S. Ramjee, S. Ju, D. Yang, X. Liu, A. E. Gamal, and Y. C. Eldar,
“Fast deep learning for automatic modulation classification,” arXiv
pre print arXiv:1901.05850, 2019
T. J. OShea, T. Roy, and T. C. Clancy, “Over-the-air deep learning
based radio signal classification,” IEEE J. Sel. Topics Signal Process.,
vol. 12, no. 1, pp. 168–179, 2018
S. Peng et al., “Modulation classification based on signal constellation
diagrams and deep learning,” IEEE Trans. Neural Netw. Learn. Syst.,
vol. 30, no. 3, pp. 718–727, Mar. 2019.
J. Ma, S.-C. Lin, H. Gao, and T. Qiu, “Automatic modulation
classification under non-Gaussian noise: A deep residual learning
approach,” in Proc. IEEE Int. Conf. Commun. (ICC), May 2019, pp.

1–6.
H. Gu, Y. Wang, S. Hong, and G. Gui, “Blind channel identification
aided generalized automatic modulation recognition based on deep
learning,” IEEE Access, vol. 7, pp. 110722–110729, 2019.



×