Tải bản đầy đủ (.pdf) (8 trang)

Phát hiện khẩu trang sử dụng mô hình học sâu MobileNetV2

Bạn đang xem bản rút gọn của tài liệu. Xem và tải ngay bản đầy đủ của tài liệu tại đây (776.86 KB, 8 trang )

LIÊN NGÀNH ĐIỆN - ĐIỆN TỬ - TỰ ĐỘNG HÓA

Phát hiện khẩu trang sử dụng mơ hình học sâu MobileNetV2
Face Mask Detector using Deep Learning model MobileNetV2
Phạm Thị Hường
Email:
Trường Đại học Sao Đỏ
Ngày nhận bài: 13/4/2020
Ngày nhận bài sửa sau phản biện: 26/9/2020
Ngày chấp nhận đăng: 30/9/2020
Tóm tắt
Nghiên cứu này trình bày phương pháp học sâu (deep learning - DL) MobileNetV2 nhằm phát hiện người
đeo khẩu trang trên ảnh và video thời gian thực. Mạng được huấn luyện để thực hiện nhận dạng hai lớp
gồm những người đeo khẩu trang và những người không đeo khẩu trang, đầu vào là các ảnh mầu RBG
với độ phân giải 224×224. Các ảnh mẫu được lấy từ cơ sở dữ liệu Real World Masked Face Dataset. Kết
quả thử nghiệm trên bộ mẫu gồm 4.591 mẫu cho khả năng phát hiện chính xác đạt 99,22% cho thấy đây
là một trong những phương pháp góp phần hạn chế lây nhiễm dịch bệnh COVID-19 nhằm bảo vệ sức
khỏe cộng đồng.
Từ khóa: COVID-19; học sâu; phát hiện khẩu trang.
Abstract
This study presents a deep learning method to detect people who wear masks on images and realtime videos. A MobileNetV2 network was used to train a binary recognition task (people with mask or
without mask). The input RGB color images were at resolution of 224×224. The set of 4.591 images was
taken from Real World Fase Dataset to train and test the network. Numerical results showed an accurate
detection at 99,22%, whichproves that this could be one of the measures contributing to the limit of
COVID-19 disease transmission to protect public health.
Keywords: COVID-19; deep learning; face mask detection.
1. ĐẶT VẤN ĐỀ
Hiện tại, dịch bệnh COVID-19 vẫn có diễn biến
phức tạp trên tồn thế giới, nó khơng chỉ ảnh
hưởng đến kinh tế, thương mại, dịch vụ mà cịn
ảnh hưởng khơng nhỏ đến tâm lý xã hội của người


dân và chưa có vacxin điều trị cho nên cần kiểm
soát tốt nguồn lây nhiễm. Leung et al. [1] cho rằng
khẩu trang có thể làm giảm sự lây lan của vi-rút
Corona vì đa số các ca lây nhiễm COVID-19 do
tiếp xúc rất gần và không đeo khẩu trang khi nói
chuyện. Theo trung tâm kiểm sốt bệnh tật CDC
(Centers for Disease Control and Prevention),
khẩu trang được khuyến nghị là một rào chắn đơn
giản để giúp ngăn các giọt bắn từ đường hơ hấp
bay vào khơng khí và lên người khác. Khuyến nghị
này dựa trên nghiên cứu vai trị của các giọt bắn
từ đường hơ hấp đối với sự lây lan của vi-rút gây

ra COVID-19, kết hợp với bằng chứng mới xuất
hiện từ các nghiên cứu lâm sàng và trong phịng
thí nghiệm cho thấy khẩu trang làm giảm việc phun
các giọt bắn khi đeo qua mũi và miệng [2]. Các
giọt cũng có thể rơi xuống các bề mặt nơi vi-rút có
thể tồn tại. Do đó, mơi trường trực tiếp của một cá
nhân bị nhiễm bệnh có thể đóng vai trò là nguồn
lây truyền do tiếp xúc. Theo các chuyên gia của Tổ
chức Y tế thế giới (WHO), đeo khẩu trang có thể
hạn chế sự lây lan của một số bệnh đường hơ hấp
trong đó có COVID-19. Dịch bệnh này lây lan chủ
yếu giữa những người tiếp xúc gần với nhau (trong
khoảng 6 feet), vì vậy việc sử dụng khẩu trang đặc
biệt quan trọng ở những nơi mọi người gần nhau
hoặc nơi khó có thể duy trì cách ly xã hội. WHO
cũng khuyến cáo mọi người nên đeo khẩu trang
nếu họ có triệu chứng hơ hấp, hoặc họ đang chăm

sóc những người có triệu chứng [3].

Người phản biện: 1. PGS. TS. Trần Hoài Linh
2. TS. Đỗ Văn Đỉnh

Như vậy, phát hiện người đeo khẩu trang đề cập
đến việc phát hiện xem một người đeo khẩu trang
hay không và vị trí của khn mặt đó [4] trở thành

Tạp chí Nghiên cứu khoa học, Trường Đại học Sao Đỏ, ISSN 1859-4190, Số 3 (70) 2020

5


NGHIÊN CỨU KHOA HỌC
một nhiệm vụ quan trọng nhưng nghiên cứu liên
quan đến vấn đề này chưa phổ biến. Trên thế giới,
đã có một số nghiên cứu phát hiện người đeo hay
không đeo khẩu trang. Trong [5] đã xây dựng mơ
hình CNN để phát hiện khn mặt đeo khẩu trang,
mơ hình có độ chính xác 98,86% với bộ huấn luyện
và 96,19% với bộ thử nghiệm. Tác giả sử dụng đặc
trưng Haar để phát hiện khuôn mặt và CNN với các
lớp khác nhau như Conv2D, MaxPooling2D, Flatten,
Dropout và Dense. Trong [6] sử dụng PyTorch và
CNN để cài đặt học sâu. Các mơ hình đã được thử
nghiệm với hình ảnh và video thời gian thực với độ
chính xác của mơ hình là 60%. Trong [7] dùng mơ
hình học sâu thay vì mơ hình Haar-Cascade, CNN
sử dụng 4 lớp chập theo sau là 2 lớp tuyến tính,

dùng ReLU làm chức năng kích hoạt và MaxPool2
là lớp tổng hợp. Huấn luyện mơ hình trong 10 lần
lặp và độ chính xác đạt cao nhất tại lần lặp thứ 8
là 99%. Trong [8], sử dụng deepleaning và bộ dữ
liệu của tác giả Prajna Bhandary là bộ dữ liệu đào
tạo có phần hạn chế bởi nhãn lớp có khẩu trang
được tạo một cách nhân tạo. Cụ thể, chụp ảnh
bình thường của khn mặt sau đó tùy chỉnh để
thêm khẩu trang cho chúng. Phương pháp này
dễ hơn nhiều so với áp dụng các mốc trên khuôn
mặt. Các mốc trên khuôn mặt cho phép chúng ta
tự động suy ra vị trí của các cấu trúc khn mặt,
bao gồm: Đơi mắt, lông mày, mũi, miệng, hàm.
Dựa vào các mốc trên khuôn mặt để xây dựng bộ
dữ liệu khuôn mặt đeo khẩu trang. Ngồi ra, bộ dữ
liệu nhân tạo hình ảnh khn mặt đeo khẩu trang
khơng chứa các hình ảnh có thể khiến phân loại

nhầm. Ở Pháp cũng sử dụng AI để kiểm tra xem
mọi người có đeo khẩu trang trên phương tiện giao
thông công cộng hay không như tại ga tàu điện
ngầm Chatelet-Les Halles. Tại Việt Nam, Robot do
Đại học Công nghệ (ĐH Quốc gia) chế tạo để phát
hiện người không đeo khẩu trang và nhắc nhở sử
dụng những thiết bị, linh kiện có sẵn. Camera tích
hợp cảm biến laser để đo khoảng cách, phát hiện
người ra vào cửa. Cùng lúc, camera sẽ thu lại hình
ảnh và truyền tới máy tính. Các chi tiết chính trên
khn mặt như mắt, mũi, miệng sẽ được số hóa
và xử lý. Nếu máy tính phát hiện mũi và miệng bị

che, có nghĩa là người đó đang đeo khẩu trang.
Cịn trong trường hợp miệng bị che nhưng mũi
hở, hoặc cả mũi và miệng đều hở, nghĩa là người
đó đeo chưa đúng cách hoặc khơng đeo. Khi đó
máy tính sẽ lập tức kích hoạt loa và phát ra thơng
báo. Độ chính xác phụ thuộc nhiều vào bối cảnh,
chẳng hạn ánh sáng, cách di chuyển của người
ra vào cao nhất đã đạt 95%. Như vậy, phát hiện
khẩu trang là một nhiệm vụ cần thiết trong tình hình
hiện nay, mục tiêu ngồi nhắc nhở những cá nhân
khơng đeo khẩu trang, mà còn tạo ra dữ liệu thống
kê giúp chính quyền dự đốn sự bùng phát của
COVID-19 trong tương lai. Nghiên cứu này tiếp
cận theo phương pháp học sâu sử dụng mơ hình
MobileNetV2, một mơ hình khá nhẹ, số lượng tham
số ít, tốc độ tính tốn nhanh và dễ triển khai ứng
dụng real time trên các thiết bị di động hoặc thống
nhúng có khả năng tính tốn thấp để tự động phát
hiện cùng lúc nhiều người không đeo khẩu trang
trên ảnh và video thời gian thực với bộ dữ liệu
người đeo khẩu trang thực.

Begin
Load ảnh/video

Dự đốn
Khơng


Có khẩu trang


Thơng báo with _mask

Kết thúc

Thơng báo with _mask

Lưu hình ảnh, thời gian hiện tại
Hình 1. Sơ đồ thuật tốn phát hiện khẩu trang

6

Tạp chí Nghiên cứu khoa học, Trường Đại học Sao Đỏ, ISSN 1859-4190, Số 3 (70) 2020


LIÊN NGÀNH ĐIỆN - ĐIỆN TỬ - TỰ ĐỘNG HÓA
2. NỘI DUNG NGHIÊN CỨU

2.2. Tiền xử lý dữ liệu

2.1. Bài tốn phát hiện khẩu trang

Cơ sở dữ liệu hình ảnh thu thập tại Real World
Masked Face Dataset (RMFD) chứa 5.000 khuôn
mặt đeo khẩu trang của 525 người và 90.000
khuôn mặt bình thường, sau đó tiến hành tiền xử
lý để đưa vào mơ hình huấn luyện [11]. Các bước
xử lý trước bao gồm thay đổi kích thước thành
224 × 224 pixel, chuyển đổi sang định dạng mảng,
chuyển kênh màu BGR sang RGB và chia tỷ lệ

cường độ pixel trong hình ảnh đầu vào thành phạm
vi [-1, 1]. Sau đó sử dụng scikit-learn One-HotEncoding để tạo nhãn lớp cho mỗi hình ảnh. Trong
chiến lược này, mỗi véc-tơ giá trị nhãn đầu ra được
chuyển đổi thành dạng mới, trong đó chỉ có 1 đầu
ra bằng “1” ứng với mã phân loại của véc-tơ đầu
vào tương ứng còn các đầu ra khác đều bằng “0”.

Phát hiện đối tượng là để trả lời câu hỏi: “Đối tượng
cần tìm có ở trong ảnh hay video hay khơng?” và
“Nếu có thì nằm ở vị trí nào?” Trong bài toán phát
hiện người đeo khẩu trang cần trả lời câu hỏi người
trong ảnh/video có hay khơng đeo khẩu trang? Bài
toán phân loại này gồm hai bước là xây dựng mơ
hình và vận hành mơ hình. Cho sẵn một tập dữ liệu
các khuôn mặt được gán nhãn là không đeo khẩu
trang hay có đeo khẩu trang gọi tắt là lớp khơng
khẩu trang và lớp có khẩu trang. Cần một phương
pháp huấn luyện để xây dựng một mơ hình phân
lớp từ tập dữ liệu mẫu đó, sau đó dùng mơ hình
này dự đốn lớp của những khn mặt mới chưa
biết nhãn.

Tập hình ảnh này gọi là tập huấn luyện. Trong
nghiên cứu này tác giả sử dụng 686 hình ảnh khn
mặt khơng đeo khẩu trang và 3.905 hình ảnh đeo
khẩu trang làm dữ liệu huấn luyện mơ hình.

(a)
(b)
Hình 2. (a) Mặt khơng có khẩu trang và (b) mặt có khẩu trang


(a) Mặt khơng có khẩu trang

(b) Mặt có khẩu trang

(c) Mặt có và khơng có khẩu trang

(d) Mặt nhầm lẫn là khẩu trang

Hình 3. (a), (b), (c), (d) Minh họa các ảnh trong bộ dữ liệu phát hiện khẩu trang
Tạp chí Nghiên cứu khoa học, Trường Đại học Sao Đỏ, ISSN 1859-4190, Số 3 (70) 2020

7


NGHIÊN CỨU KHOA HỌC
2.3. Huấn luyện mơ hình

2.4. Vận hành mơ hình

CNN (Mạng nơron tích chập) có nhiều phiên bản
của mạng được đào tạo trước và kiến trúc tốt như
AlexNet, ResNet, Inception, LeNet, MobileNet,…
Trong trường hợp này sử dụng MobileNetV2 là mơ
hình hướng di động, nhẹ và hiệu quả do số lượng
tham số ít. MobileNetV2 xây dựng dựa trên các ý
tưởng từ MobileNetV1 [10], sử dụng tích chập có
thể phân tách theo chiều sâu với các đặc trưng mới
cho kiến trúc.


Tải hình ảnh, video đầu vào sau đó phát hiện
khn mặt trong ảnh. Áp dụng bộ phát hiện khẩu
trang để phân loại khuôn mặt đeo khẩu trang (with_
mask) hoặc là không đeo khẩu trang (without_
mask). Tiền xử lý được thực hiện là chuẩn hóa
kích thước và hốn đổi kênh màu. Để giảm nhiễu
cho ảnh do chiếu sáng cần chuyển ảnh sang dạng
ảnh blob thông qua hàm blobFromImage của
OpenCV.

Trong bước này, chia dữ liệu thành tập huấn luyện
chứa các hình ảnh mà mơ hình CNN sẽ được huấn
luyện và tập kiểm tra với các hình ảnh mà mơ hình
sẽ kiểm tra. Cụ thể lấy split_size = 0.8, có nghĩa là
80% tổng số hình ảnh cho huấn luyện và 20% cịn
lại của hình ảnh cho kiểm tra một cách ngẫu nhiên.
Sau đó, xây dựng mơ hình CNN với các lớp khác
nhau như AveragePooling2D với trọng số 7×7,
Flatten, Dropout và Dense. Trong lớp Dense cuối
cùng, sử dụng hàm softmax để xuất ra một véc - tơ
thể hiện xác suất của mỗi lớp.

Load ảnh/video cần kiểm tra

Ảnh huấn luyện

Phát hiện mặt từ ảnh/video

Áp dụng mơ hình để dự đốn


Đưa ra kết quả dự đốn
Hình 5. Vận hành mơ hình
2.5. Phát hiện khẩu trang trên ảnh

Tiền xử lý ảnh

Trích chọn đặc trưng

Với mỗi hình ảnh trong bộ kiểm tra, cần tìm chỉ
mục của nhãn với xác suất dự đoán lớn nhất tương
ứng, đánh giá và lưu mơ hình. Sơ đồ phát hiện
khẩu trang trên ảnh như trên hình 6.
2.6. Phát hiện khẩu trang trên ảnh

Huấn luyện mơ hình

Lưu mơ hình
Hình 4. Huấn luyện mơ hình

Ảnh nguồn

Kết quả

MobileNetV2

Hàm kích hoạt
Softmax 2 kênh ra

Đối với vấn đề xác định người trong video/webcam
có đeo khẩu trang hay khơng cần xác định các

khuôn mặt trong webcam và phân loại khuôn mặt
đeo khẩu trang. Đầu tiên, lặp qua các frame từ
video và thay đổi kích thước để có chiều rộng tối đa
400 pixel, phát hiện khuôn mặt trong frame và xác
định xem họ có đang đeo khẩu trang hay khơng?
Quy trình chi tiết được thể hiện trên hình 7.
Pooling theo
giá trị trung bình

Dropout
p = 0,5

Phẳng hóa ma trận
thành véc - tơ

Kích hoạt phi tuyến
Relu 128 kênh ra

Hình 6. Sơ đồ phát hiện người đeo khẩu trang trên ảnh

8

Tạp chí Nghiên cứu khoa học, Trường Đại học Sao Đỏ, ISSN 1859-4190, Số 3 (70) 2020


LIÊN NGÀNH ĐIỆN - ĐIỆN TỬ - TỰ ĐỘNG HÓA

Khởi tạo
video


Trích xuất ảnh
từ các frame

Load phát hiện
khn mặt

Ảnh khn mặt

Hiện thị
kết quả

Chuyển kết quả
vào frame

Load mơ hình
MobileNetV2

Tiền xử lý ảnh

Hình 7. Sơ đồ phát hiện người đeo khẩu trang trên video/webcam
3. KẾT QUẢ NGHIÊN CỨU VÀ THẢO LUẬN
Dữ liệu thực hiện huấn luyện được lấy tại Real
World Masked Face Dataset với nhiều ánh sáng,
tư thế, sự che khuất khác nhau, một số khuôn mặt
được che bằng tay hoặc các vật thể khác thay vì
khẩu trang thực. Dữ liệu bao gồm các mặt có khẩu
trang, mặt khơng có khẩu trang, mặt có và khơng
có khẩu trang trong một hình ảnh và hình ảnh nhầm
là khẩu trang nhưng thực tế thì khơng có.
Để đánh giá tập trọng số cần xác định lỗi cho cả

huấn luyện (loss) và kiểm tra (val_loss) ta sử dụng
hàm Cross Entropy là nhị phân chéo binary_crossentropy. Cụ thể, tính tốn loss của mỗi trường
hợp bằng cách tính giá trị trung bình như sau:

- FN: Số lượng khn mặt đeo khẩu trang bị phân
loại nhầm là khuôn mặt không đeo khẩu trang.
- TP: Số lượng khuôn mặt đeo khẩu trang được
phân loại chính xác.
- FP: Số lượng khn mặt không đeo khẩu trang bị
phân loại nhầm là khuôn mặt đeo khẩu trang.
Từ đó, độ chính xác của mơ hình được tính theo
cơng thức sau:

𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴 =

𝑇𝑇𝑇𝑇 + 𝑇𝑇𝑇𝑇
𝑇𝑇𝑇𝑇 + 𝐹𝐹𝑇𝑇 + 𝑇𝑇𝑇𝑇 + 𝐹𝐹𝑇𝑇

(2)

Đây là tỉ lệ của tất cả trường hợp phân loại đúng
(khơng phân biệt negative/positive) trên tồn bộ
trường hợp trong mẫu kiểm tra.

Một độ đo cũng thường được dùng để đánh giá mơ
hình phân lớp đó là F-measure hay F-core được
1
𝑙𝑙𝑜𝑜𝑜𝑜𝑜𝑜(𝑦𝑦, 𝑦𝑦
)6 dựa trên 2 độ đo khác là precision và recall, và
( ) = − , . 0 𝑦𝑦! . log(𝑦𝑦4! ) + (1 − 𝑦𝑦! ). log(1 − 𝑦𝑦4!tính

𝑛𝑛
(1) được tính như sau:
!#$
"

"

1
𝑦𝑦
( ) = − , . 0 𝑦𝑦! . log(𝑦𝑦4! ) + (1 − 𝑦𝑦! ). log(1 − 𝑦𝑦4! )6
𝑛𝑛
!#$

Với n là số lượng giá trị vơ hướng trong đầu ra
của mơ hình, hàm loss trả về một số thực không
âm thể hiện sự chênh lệch giữa hai đại lượng yˆ là
xác suất nhãn được dự đoán và y là xác suất của
nhãn đúng. Sau đó sử dụng thuật tốn gradient
descent “adam” (Adaptive Mô - ment Estimator)
để tối ưu [13].
Hơn nữa, để kiểm định hiệu năng của mơ hình
phân loại, cần tính tốn tỷ lệ chính xác trung bình
trên tất cả các dự đoán sử dụng thang đo ma trận
nhầm lẫn như sau:
Bảng 1. Ma trận nhầm lẫn
Dự đoán là
Positive

Dự đoán là
Negative


𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃 =
𝑅𝑅𝑅𝑅𝑅𝑅𝑅𝑅𝑅𝑅𝑅𝑅 =

𝐹𝐹!"#$% =

𝑇𝑇𝑃𝑃
𝑇𝑇𝑃𝑃 + 𝐹𝐹𝑃𝑃

(3)

𝑇𝑇𝑇𝑇
𝑇𝑇𝑇𝑇 + 𝐹𝐹𝐹𝐹

(4)

2
𝑇𝑇𝑃𝑃
=
1
𝐹𝐹𝐹𝐹 + 𝐹𝐹𝑃𝑃
1
𝑇𝑇𝑃𝑃 +
+
𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃 𝑅𝑅𝑃𝑃𝑃𝑃𝑅𝑅𝑅𝑅𝑅𝑅
2

(5)

Bảng 2. Đánh giá huấn luyện mơ hình

Thời
gian (s)

loss

acc

val_loss

val_acc

49

0,8343

0,6261

0,3932

0,8050

50

0,4339

0,7987

0,2218

0,9300


53

0,2503

0,9007

0,1433

0,9450

52

0,1726

0,9490

0,1104

0,9550

0,1405

0,9582

0,0907

0,9700

Thực tế là Positve


TP

FN

52

Thực tế là Negative

FP

TN

59

0,1336

0,9490

0,0770

0,9800

57

0,0957

0,9752

0,0674


0,9800

48

0,0802

0,9752

0,0595

0,9850

49

0,0718

0,0718

0,0548

0,9850

46

0,0843

0,9673

0,0481


0,9800

43

0,0728

0,9778

0,0428

0,9850

Trong đó:
Các hàng của ma trận là nhãn lớp thực tế, các cột
của ma trận là nhãn lớp dự đốn.
- TN: Số lượng khn mặt khơng đeo khẩu trang
được phân loại chính xác.

Tạp chí Nghiên cứu khoa học, Trường Đại học Sao Đỏ, ISSN 1859-4190, Số 3 (70) 2020

9


NGHIÊN CỨU KHOA HỌC
Thời
gian (s)

loss


acc

val_loss

val_acc

48

0,0507

0,9817

0,0399

0,9950

60

0,0423

0,9869

0,0372

0,9900

74

0,0555


0,9843

0,0373

0,9900

77

0,0420

0,9883

0,0333

0,9950

71

0,0406

0,9869

0,0307

0,9950

57

0,0383


0,9895

0,0331

0,9900

57

0,0407

0,9869

0,0286

0,9950

55

0,0324

0,9900

0,0290

0,9922

42

0,0322


0,9900

0,0297

0,9922

Tiến hành huấn luyện với tốc độ học 0.0001, sau
20 lần lặp với số số lượng mẫu (Batch_size) sử
dụng cho mỗi lần cập nhật trọng số là 32 ta thu
được kết quả (bảng 3). Như bảng 3 có thể thấy,
sau 20 lần lặp, mơ hình đạt được độ chính xác
khoảng 99% trên bộ thử nghiệm (bộ kiểm tra). Đây
là một giá trị tương đối cao.

Bảng 3. Đánh giá mơ hình
Precision

Recall

0,97

1,00

Có khẩu trang

Fscore

0,98

Khơng khẩu trang


1,00

0,99

0,99

Trọng số trung bình

0,99

0,99

0,99

Hình 8. Đồ thị độ chính xác và giá trị lỗi
Kết quả cài đặt phát hiện khẩu trang trên ảnh:

Hình 9. Kết quả phát hiện người đeo khẩu trang trên ảnh

Hình 10. Kết quả phát hiện người đeo khẩu trang trên webcam điều kiện ánh sáng tối khoảng cách 3 m
10 Tạp chí Nghiên cứu khoa học, Trường Đại học Sao Đỏ, ISSN 1859-4190, Số 3 (70) 2020


LIÊN NGÀNH ĐIỆN - ĐIỆN TỬ - TỰ ĐỘNG HĨA

Hình 11. Kết quả phát hiện người đeo khẩu trang trên webcam điều kiện ánh sáng tối

Hình 12. Kết quả phát hiện người đeo khẩu trang trên webcam điều kiện ánh sáng trung bình


Hình 13. Kết quả phát hiện người đeo khẩu trang trên webcam điều kiện ánh sáng trung bình
Với những khuôn mặt không đeo khẩu trang, hệ
thống phát hiện và lưu dữ liệu ảnh là một trong

những cơ sở thống kê dự đốn sự bùng phát trong
tương lai.

Hình 14. Kết quả lưu người không đeo khẩu trang trên webcam
Tạp chí Nghiên cứu khoa học, Trường Đại học Sao Đỏ, ISSN 1859-4190, Số 3 (70) 2020

11


NGHIÊN CỨU KHOA HỌC
4. KẾT LUẬN

[5]

Kết quả nghiên cứu cho thấy: Phát hiện người đeo
khẩu trang sử dụng mơ hình học sâu MobileNetV2
có độ chính xác khá cao, số lượng tham số ít, giảm
chi phí sản xuất các hệ thống phát hiện nếu triển
khai trên các thiết bị nhúng, có thể phát hiện nhiều
khuôn mặt trên ảnh và video với bộ dữ liệu đeo
khẩu trang thực tế. Hơn nữa, nghiên cứu cũng
thực hiện việc thu thập mặt không đeo khẩu trang
và lưu trữ vào thư mục máy chủ nhằm tạo dữ liệu
thống kê để dự đoán sự bùng phát của dịch bệnh
mà khơng cần xác định danh tính cá nhân của họ.


TÀI LIỆU THAM KHẢO
[1]

[2]

[3]
[4]

N. H. Leung, D. K. Chu, E. Y. Shiu, K.-H. Chan,
J. J. Mc Devitt, B. J. Hau, H.-L. Yen, Y. Li, D. KM,
J. Ip et al.(2020), Respiratory virus shedding in
exhaled breath and efficacy of face masks.
S. Feng, C. Shen, N. Xia, W. Song, M. Fan,
and B. J. Cowling (2020), Rational use of face
masks in the covid-19 pandemic, The Lancet
Respiratory Medicine.
/>Z. Wang, G. Wang, B. Huang, Z. Xiong, Q.
Hong, H. Wu, P. Yi, K. Jiang, N. Wang, Y.
Pei et al. (2020), Masked face recognition
dataset and application, arXiv preprint
arXiv:2003.09093.

/>[6] a s k- d et e c t o r- u s i n g - d e e p - l e a r n i n g pytorch-and-computer-vision-opencv/
[7] />[8] h t t p s : / / w w w . p y i m a g e s e a r c h .
com/2020/05/04/covid-19-face-maskdetector-with-opencv-keras-tensorflowand-deep-learning/
[9] />html, đăng ngày 15/5/2020.
[10] A. G. Howard, M. Zhu, B. Chen, D.
Kalenichenko, W. Wang, T. Weyand, M.
Andreetto, and H. Adam (2017), Mobilenets:
Efficient convolutional neural networks for

mobile vision applications, arXiv preprint
arXiv:1704.04861.
[11] />[12] h t t p s : // t o w a r d s d a t a s c i e n c e . c o m /
categorical-encoding-using-label-encodingand-one-hot-encoder-911ef77fb5bd.
[13] />cac-thuat-toan-toi-uu-trong-tensorflowvoi-cong-thuc/

THƠNG TIN TÁC GIẢ
Phạm Thị Hường
- Tóm tắt q trình đào tạo, nghiên cứu (thời điểm tốt nghiệp và chương trình đào
tạo, nghiên cứu):
+ Năm 2004: Tốt nghiệp Đại học chuyên ngành Tin học, Trường Đại học Sư Phạm
Quy Nhơn.
+ Năm 2017: Tốt nghiệp Thạc sĩ ngành Công nghệ thông tin, Trường Đại học sư
phạm Hà Nội.
- Tóm tắt cơng việc hiện tại: Giảng viên bộ môn Công nghệ thông tin, Trường Đại
học Sao Đỏ.
- Lĩnh vực quan tâm: Tin học, tốn học.
- Email:
- Điện thoại: 0972306806.

12 Tạp chí Nghiên cứu khoa học, Trường Đại học Sao Đỏ, ISSN 1859-4190, Số 3 (70) 2020



×