Tải bản đầy đủ (.pdf) (5 trang)

Phát triển hệ thống phát hiện và cảnh báo tắc đường trong ngõ nhỏ cho xe ô tô sử dụng máy tính nhúng Raspberry Pi 4

Bạn đang xem bản rút gọn của tài liệu. Xem và tải ngay bản đầy đủ của tài liệu tại đây (1005.17 KB, 5 trang )

Hội nghị Quốc gia lần thứ 23 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2020)

Phát triển hệ thống phát hiện và cảnh báo tắc
đường trong ngõ nhỏ cho xe ơ tơ sử dụng máy
tính nhúng Raspberry Pi 4
Võ Quang Sơn1, Võ Thiện Lĩnh2, Hồ Thành Trung1, Nguyễn Trung Thị Hoa Trang3, Vũ Ngọc Quý1, và
Đào Thanh Toản1,4*
1

Khoa Điện-Điện tử, Trường Đại học Giao thông vận tải, số 3 Cầu Giấy, Hà Nội, Việt Nam
Phân Hiệu tại Thành phố Hồ Chí Minh, Trường Đại học Giao thơng vận tải, 450 Lê Văn Việt, Tăng Nhơn Phú A,
Quận 9, TP. Hồ Chí Minh, Việt Nam
3
Khoa Điện - Điện tử, Trường Cao đẳng nghề Công nghệ cao Hà Nội, Phường Nhuệ Giang, Tây Mỗ, Nam Từ
Liêm - Hà Nội
4
Trung tâm Nghiên cứu và Phát triển Việt Nhật, Trường Đại học Giao thông vận tải, số 3 Cầu Giấy, Hà Nội

2

*Email: ; ; ;
; ;
- Loại lắp đặt trong lòng đường bao gồm: vòng
từ; từ kế;

Abstract— Đặc thù của mạng lưới giao thông tại các đô thị
lớn ở Việt Nam là có rất nhiều ngõ nhỏ, hẹp, mật độ lưu
thơng nhiều, dịng giao thơng hỗn hợp, thường xun xảy
ra ách tắc do ô tô đi vào ngõ. Đặc biệt trong các ngõ có bề
rộng từ 2 đến 5 m rất dễ xảy ra tắc nghẽn khi có 2 xe ơ tơ
đi đối đầu nhau. Vì vậy, việc ứng dụng giao thông thông


minh trong tổ chức điều khiển giao thông tại các ngõ nhỏ
nhằm tránh ùn tắc giao thông là thật sự cần thiết. Bài báo
này đề xuất một giải pháp áp dụng công nghệ xử lý ảnh và
phương pháp máy học trên máy tính nhúng Raspberry Pi
4 để xác định xe ơ tơ để đưa ra tín hiệu cảnh báo về tình
trạng tắc đường. Một số kết quả thử nghiệm trong ngõ tại
Thành phố Hồ Chí Minh cũng được trình bày chi tiết.

Loại lắp đặt phía trên bao gồm: xử lý ảnh từ hệ
thống camera quan sát; rada viba, cảm biến siêu âm, cảm
biến hồng ngoại và rada lazer.
Hệ thống phát hiện phương tiện giao thông đề cập ở
đây tập trung vào hướng nghiên cứu xử lý ảnh từ hệ
thống camera quan sát. Hệ thống bao gồm ba thành phần
là Kit Raspberry Pi 4, Camera IP và đèn tín hiệu giao
thơng để cảnh báo. Hệ thống sẽ điều khiển đèn xanh, đèn
đỏ để cảnh báo đến các ô tơ muốn đi vào ngõ. Khi có xe
đi vào từ bên đầu A của ngõ thì bên đầu B của ngõ sẽ có
tín hiệu đèn đỏ để cảnh báo xe bên ngõ B khơng được
vào. Đồng thời sẽ có tín hiệu đèn xanh bên ngõ A để
thông báo xe bên ngõ A được vào. Nghĩa là, ta có thể
cho phép hai hay nhiều xe ô tô lưu thông cùng chiều
trong ngõ cùng lúc, cịn hai xe ngược chiều thì khơng
được phép lưu thơng trong ngõ cùng lúc. Từ đó tránh
được tình trạng kẹt xe trong các ngõ nhỏ. Hệ thống nhỏ
gọn, có thể di dời và lắp đặt thuận tiện.

Keywords- Raspberry Pi 4; nhận dạng ảnh xe hơi, mạng
nơ-ron tích chập; Deep learning.


I.

GIỚI THIỆU

Hiện nay, hàng loạt tuyến đường huyết mạch, các
ngõ nhỏ cũng như các nút giao thông trọng điểm tại các
thành phố lớn thường xuyên rơi vào tình trạng ùn ứ, tắc
nghẽn giao thông dẫn đến chậm phát triển kinh tế - xã
hội, ảnh hưởng đến môi trường. Một vài nguyên nhân
dẫn đến tình trạng kẹt xe như: ý thức chấp hành Luật
Giao thông của người điều khiển xe, phương tiện cá
nhân tham gia giao thông tăng cao, lấn chiếm vỉa hè,
lòng đường để kinh doanh,… và đặc biệt là tình trạng
kẹt xe trong các ngõ, ngách nhỏ khi 2 xe ô tô chạy vào
ngược chiều nhau xảy ra thường xuyên. Hiện tại việc xác
định phương tiện giao thông bằng xử lý ảnh vẫn chưa
được sử dụng rộng rãi ở Việt Nam do cịn nhiều hạn chế
trong mơi trường hoạt động, các điều kiện khách quan
bên ngoài và phải tuân thủ một số quy định đi kèm cụ
thể. Các thiết bị phát hiện phương tiện giao thơng có thể
được chia thành 2 loại cơ bản sau:

ISBN: 978-604-80-5076-4

Kích thước của xe thay đổi khác nhau ở độ cao lắp
đặt và góc quan sát của camera do đó việc giải quyết
những vấn đề trên và áp dụng chúng một cách hiệu quả
vào bài toán là điều cần thiết. Trong bài báo này, chúng
tôi tập trung vào các vấn đề trên để đề xuất một giải pháp
khả thi, và chúng tôi áp dụng kết quả phát hiện xe để đưa

ra tín hiệu cảnh báo.
II.

GIỚI THIỆU MƠ HÌNH HỆ THỐNG

Phần này mơ tả cấu trúc chính của hệ thống phát hiện
xe. Đầu tiên, dữ liệu video về cảnh giao thông trong hẻm
được nhập vào Kit Raspberry Pi 4 [1-2]. Sau đó, ảnh sẽ
được tiền xử lý và chuẩn hóa cho phù hợp. Tiếp theo,

92


Hội nghị Quốc gia lần thứ 23 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2020)

hơn trong việc phát hiện đối tượng với tốc độ nhanh và
độ chính xác cao.

diện tích mặt đường được phân vùng giới hạn xử lý.
Phương pháp phát hiện đối tượng sử dụng mạng
YOLOv3 để phát hiện đối tượng phương tiện và hướng
di chuyển trong video [3]. Chúng tôi tiến hành thay đổi
một số thơng số trong mạng nơ-ron tích chập sẵn có cho
phù hợp với đối tượng nghiên cứu của mình. Mơ hình
mạng này có thể cải thiện hiệu quả phát hiện các đối
tượng nhỏ và giải quyết mạnh mẽ vấn đề đối tượng có
sự thay đổi tỷ lệ. Cuối cùng, hệ thống sẽ đưa ra tín hiệu
cảnh báo thơng qua đèn tín hiệu. Hệ thống ở 2 đầu ngõ
sẽ truyền thông qua tín hiệu mạng LAN hoặc sóng RF.


3.1. Mạng nơ-ron tích chập
Với bài tốn phát hiện xe ơ tơ trong bài báo này,
tập mẫu huấn luyện là tập ảnh có số lượng nhỏ, nên khi
thực hiện bài toán phân loại với tập ảnh dữ liệu nhỏ, ta
có thể sử dụng lại kết quả của mạng nơ-ron tích chập đã
có thay vì xây dựng lại mạng noron và huấn luyện nó từ
đầu. Chỉ cần sử dụng kiến trúc mạng cho phù hợp,
phương pháp sử dụng các mơ hình có sẵn như vậy còn
được gọi là học chuyển tiếp. Với phương pháp này, toàn
bộ lớp trừ lớp ngõ ra, được coi là một bộ trích chọn đặc
trưng sau đó ta huấn luyện một bộ phân loại khác dựa
trên vector đặc trưng đã chọn.
Một mạng nơ ron tích chập về cơ bản có 3 q trình
khác nhau:
• Q trình trích đặc trưng: Thơng qua các tích
chập giữa ma trận ảnh đầu vào với bộ lọc để tạo thành
các đơn vị trong một lớp mới. Q trình này có thể diễn
ra liên tục ở phần đầu của mạng và thường sử dụng hàm
kích hoạt relu.
• Quá trình tổng hợp: các lớp ở về sau quá trình
trích đặc trưng sẽ có kích thước lớn do số đơn vị ở các
lớp sau thường tăng tiến theo cấp số nhân. Điều đó làm
tăng số lượng hệ số và khối lượng tính tốn trong mạng
nơ ron. Do đó để giảm tải tính tốn chúng ta sẽ cần giảm
chiều của ma trận thơng qua việc tìm ra một giá trị đại
diện cho mỗi một vùng không gian bộ lọc đi
qua(maxpooling) mà khơng làm thay đổi các đường nét
chính của ảnh. Q trình này gọi là tổng hợp.
• Q trình kết nối đầy đủ (fully): Sau khi đã
giảm số lượng tham số đến một mức độ hợp lý, ma trận

cần được định dạng lại(flatten) thành một vector và sử
dụng các kết nối đầy đủ giữa các lớp. Quá trình này sẽ
diễn ra cuối mạng tích chập và sử dụng hàm kích hoạt là
relu. Kết nối cuối cùng sẽ dẫn tới các đơn vị là đại diện
cho mỗi lớp với hàm kích hoạt là softmax nhằm mục
đích tính xác xuất.

Hình 1: Minh họa quá trình xảy ra kẹt xe trong hẻm nhỏ.

Hình 2: Sơ đồ khối thiết bị

III.

PHƯƠNG PHÁP PHÁT HIỆN PHƯƠNG
TIỆN GIAO THƠNG

Một số phương pháp phát hiện phương tiện giao
thơng, cụ thể trong bài báo này là xe ô tô, bằng phương
pháp xử lý ảnh đã được nghiên cứu và áp dụng hiện nay,
gồm 4 phương pháp chính:
1. Phương pháp trừ nền. [4]
2. Phương pháp phân biệt khung và dựa trên
chuyển động. [5]
3. Phương pháp luồng quang học. [6]
4. Phương pháp dựa trên các đặc trưng. [7][8]
Trong 4 phương pháp trên, phương pháp dựa trên
các đặc trưng của phương tiện giao thông hiện nay đang
được sử dụng rộng rãi. Để trích đặc trưng đối tượng, việc
sử dụng mạng nơ-ron tích chập đã được triển khai thành
cơng với độ chính xác cao và được xem là phương pháp

trích đặc trưng mức cao [9]. Phương pháp trích đặc trưng
truyền thống có tốc độ nhanh hơn khi phát hiện phương
tiện nhưng không tạo ra kết quả tốt khi hình ảnh thay đổi
độ sáng, chuyển động có tính chu kỳ trong nền và nơi có
phương tiện di chuyển chậm hoặc khung cảnh phức tạp
[10][11]. Mạng nơ-ron tích chập đã đạt được kết quả tốt

ISBN: 978-604-80-5076-4

Hình 4: Cấu trúc của một mạng nơ ron tích chập [12].

Yolo là một mơ hình mạng nơ-ron tích chập được
thiết kế để phát hiện các đối tượng mà có ưu điểm nổi
trội là nhanh hơn nhiều so với những mơ hình cũ, phù
hợp cho hệ thống real-time và có thể chạy tốt trên những
máy tính nhúng như Raspberry Pi 4. Yolo được tạo ra
gồm các lớp tích chập kết hợp các lớp giảm mẫu và cuối

93


Hội nghị Quốc gia lần thứ 23 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2020)

cùng là 2 lớp kết nối đầy đủ. Trong đó, các lớp tích chập
sẽ trích xuất ra các đặc trưng của ảnh, cịn lớp kết nối
đầy đủ sẽ dự đoán ra xác suất đó và tọa độ của đối tượng.
Lớp tích chập được sử dụng để trích xuất các đặc
trưng của hình ảnh đầu vào mxn, hình ảnh đầu vào được
chia thành các lưới ixj. Mơ hình sẽ nhận dạng ảnh đó có
đối tượng nào hay khơng, sau đó sẽ xác định tọa độ của

đối tượng trong bức ảnh. Tâm của hộp nhãn đối tượng
(bounding box) nằm trong một đơn vị lưới, và đơn vị
lưới chịu trách nhiệm dự đốn đối tượng. Kích thước của
ảnh đầu vào phải là bội số của tỷ lệ lưới được chia. Vì
đối tượng cần phát hiện là xe ô tô trong một hẻm nhỏ
nên phần chứa đối tượng trong ảnh sẽ tương đối lớn nên
kích thước lưới không cần quá lớn.
Cấu trúc mạng YOLOv3 áp dụng trong bài báo này
được gọi là Darknet-53[5][13], với 53 lớp tích chập.
Chúng tơi sử dụng mơ hình Yolov3 để dự đốn ảnh đầu
ra có hay khơng có xe ơ tơ[5]. Tập ảnh dữ liệu thành tập
huấn luyện của mơ hình là COCO datatset[14]. Với
YOLOv3, ta có thể dễ dàng cân đối giữa tốc độ và độ
chính xác chỉ cần thay đổi kích thước của mơ hình mà
khơng cần huấn luyện lại mơ hình[15][16].

Hình 4: Hình minh họa cách tính IoU

Trong bài báo này, ảnh đầu vào 416 × 416 được
chia lưới với kích thước 13 × 13 ơ, đầu ra mơ hình là một
ma trận 3 chiều có kích thước 13 × 13 × (5 × 𝑁 + 𝑀)
với số lượng tham số mỗi ơ là (5 × 𝑁 + 𝑀) với N và M
lần lượt là số lượng Box và Class mà mỗi ơ cần dự đốn.
Dự đốn mỗi Bounding box gồm 5 thành phần :
(𝑥, 𝑦, 𝑤, ℎ, 𝑝𝑟𝑒𝑑𝑖𝑐𝑡𝑖𝑜𝑛) với (𝑥, 𝑦) là tọa độ tâm của
bounding box, (𝑤, ℎ) lần lượt là chiều rộng và chiều cao
của bounding box, prediction được định nghĩa là xác
xuất dự đoán Bounding box chứa đối tượng [14].

Hình 5: Cấu trúc của Yolov3 gồm 53 layer [15].


3.2. Lưu đồ giải thuật của hệ thống

𝑝𝑟𝑒𝑑𝑖𝑐𝑡𝑖𝑜𝑛 = Pr(𝑂𝑏𝑗𝑒𝑐𝑡) × 𝐼𝑜𝑈(𝑝𝑟𝑒𝑑, 𝑡𝑟𝑢𝑡ℎ) (1)
Với IoU(Intersection over Union): tỷ lệ đo lường mức
độ giao nhau giữa khung hình dự báo và khung hình
được xác định trước từ bộ dữ liệu để nhằm xác định 2
khung hình có trùng lắp khơng. Tỷ lệ này được tính dựa
trên phần diện tích giao nhau gữa 2 khung hình với phần
tổng diện tích giao nhau và khơng giao nhau giữa chúng.
𝑢𝑛𝑖𝑜𝑛𝑎𝑟𝑒𝑎 = 𝑏𝑜𝑥1𝑎𝑟𝑒𝑎 + 𝑏𝑜𝑥2_𝑎𝑟𝑒𝑎 − 𝑖𝑛𝑡𝑒𝑟_𝑎𝑟𝑒𝑎

(2)
𝐼𝑜𝑈 =

𝑖𝑛𝑡𝑒𝑟_𝑎𝑟𝑒𝑎
𝑢𝑛𝑖𝑜𝑛_𝑎𝑟𝑒𝑎

(3)

𝐴(𝑥1 , 𝑦1 ) = (𝑚𝑎𝑥(𝑋𝑎1 , 𝑋𝑏1 ), 𝑚𝑎𝑥(𝑌𝑎1 , 𝑌𝑏1 ))

(4)

𝐵(𝑥2 , 𝑦2 ) = (𝑚𝑎𝑥(𝑋𝑎2 , 𝑋𝑏2 ), 𝑚𝑎𝑥(𝑌𝑎2 , 𝑌𝑏2 ))

(5)

Hình 6: Lưu đồ hệ thống.


ISBN: 978-604-80-5076-4

94


Hội nghị Quốc gia lần thứ 23 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2020)

Bộ xử lý trung tâm: Sử dụng Raspberry Pi 4 lấy dữ
liệu từ Camera đưa về xử lý, thay đổi kích cỡ ảnh sau đó
đưa ảnh vào mơ hình YOLOv3 để phát hiện có phương
tiện hay khơng. Nếu có sẽ gửi tín hiệu đến mạch công
suất để bật đèn màu đỏ. Nếu không có phương tiện nào
thì bật đèn xanh và tiếp tục kiểm tra. Quy trình được thực
hiện tương tự với thiết bị đặt tại đầu hẻm bên kia.
Camera: Đặt tại vị trí mong muốn, thu thập dữ liệu
và gửi về cho bộ xử lý trung tâm là Raspberry Pi 4. Tuy
nhiên, khi lắp đặt camera cần có vài nguyên tắc như sau:
-Vị trí lắp camera ở độ cao phù hợp.
-Vị trí lắp phải cho góc quan sát tốt, rộng và tầm
nhìn không bị che khuất.
Các bước triển khai YOLO trên Raspberry Pi4:
- Cài đặt và cập nhật hệ điều hành trên Raspberry Pi 4;
- Cài đặt tất cả các gói và thư viện cần thiết: numpy,
pip,…;
- Cài đặt OpenCV; Cài đặt TensorFlow;
- Thiết lập thư mục YOLOv3-tiny: chứa các file trọng
số, mơ hình mạng;
- Cấu hình Raspberry Pi Camera;
- Chạy chương trình phát hiện đối tượng.
IV.


nhiên khi thiếu ánh sáng, hệ thống không phát hiện ra
đối tượng, và đặc biệt nếu đối tượng ở khoảng cách xa
hay chất lượng camera kém cũng ảnh hưởng đến độ
chính xác
Với mơ hình YOLOv3: hệ thống phát hiện rất tốt
trong nhiều điều kiện môi trường khác nhau. Hệ thống
gần như không chịu sự tác động của ánh sáng hay chất
lượng ảnh kém

MỘT SỐ KẾT QUẢ THỬ NGHIỆM

Hình 8: Phát hiện đối tượng sử dụng phương pháp Haar Cascade

Độ chính xác của việc phát hiện và nhận dạng
phương tiện giao thông phụ thuộc nhiều vào chất lượng
của dữ liệu huấn luyện. Những thách thức trong vấn đề
này bao gồm góc quan sát của camera, chất lượng hình
ảnh, ánh sáng và điều kiện thời tiết. Chúng tơi đã áp dụng
các mơ hình phát hiện hiện đại để có được kết quả so
sánh. Trong số đó, YOLOv3 có được độ ổn định, độ
chính xác cao nhất.
Thực nghiệm phát hiện xe trên đường Trương Văn
Hải, Phường Tăng Nhơn Phú A, Quận 9, Tp.Hồ Chí
Minh, triển khai trên 3 phương pháp với phần cứng
Raspberry Pi 4, camera Logitech, trong cùng điều kiện
mơi trường:
Với phương pháp trừ ảnh nền: độ chính xác khơng
cao, đơi khi nhận dạng sai đối tượng, ví dụ như ở Hình
7, khi khơng có phương tiện ơ tơ nào nhưng hệ thống

vẫn phát hiện có. Lý do ở đây là do có gió làm cây lắc
lư nên hệ thống phát hiện sai.

Hình 9: Phát hiện đối tượng sử dụng phương pháp mạng nơron tích chập

V.

KẾT LUẬN

Thơng qua mơ hình YOLOv3, nhóm tác giả đã
thực nghiệm thành cơng với hệ thống phát hiện xe ô tô
trong ngõ hẻm và đạt kết quả khả quan. Kết quả của
nghiên cứu này sẽ là tiền đề để triển khai ứng dụng trong
thực tế tại các thành phố lớn ở nước ta
TÀI LIỆU THAM KHẢO
[1]

Hình 7: Phát hiện đối tượng sử dụng phương pháp trừ ảnh
nền

Với phương pháp Haar Cascade: hệ thống phát
hiện tốt khi điều kiện mơi trường có đủ ánh sáng. Tuy

ISBN: 978-604-80-5076-4

95

Agrawal & Singhal, S. Smart drip irrigation system using
raspberry Pi and arduino. Proceedings of International
Conference on Computing, Communication & Automation

(ICCCA). 2015.


Hội nghị Quốc gia lần thứ 23 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2020)

[2]

Julien Marot; Salah Bourennane. Raspberry Pi for image
processing education, 25th European Signal Processing
Conference (EUSIPCO), IEEE Publishing, 2017.
[3] Redmon, J., Divvala, S., Girshick, R., Farhadi, A. You only look
once(YOLO): Unified, real-time object detection. In 2016 IEEE
conference on computer vision and pattern recognition. 2016,
IEEE, (pp. 779–788).
[4] Radhakrishnan, M. Video object extraction by using
background subtraction techniques for sports applications.
2015, Digital Image Processing, 5(9), 91–97.
[5] Qiu-Lin, L.I., & Jia-Feng, H.E. Vehicles detection based on
three-frame-difference method and cross-entropy threshold
method. 2011,Computer Engineering, 37(4), 172–174.
[6] Liu, Y., Yao, L., Shi, Q., Ding, J. Optical flow based urban road
vehicle tracking. In 2013 Ninth International Conference on
Computational
Intelligence
and
Security.
2014,
IEEE.
[7] Al-Smadi, M., Abdulrahim, K., Salam, R.A. Traffic
surveillance: A review of vision based vehicle detection,

recognition and tracking. 2016, International Journal of Applied
Engineering Research, 11(1), 713–726.
[8] Kevin Kolcheck, Zheyuan Wang, Haiyan Xu and Jiang Yu
Zheng. Visual Counting of Traffic Flow from A Car via Vehicle
Detection and Motion Analysis,
Fukuoka Institute of
Technology, Fukuoka, Japan, September 2019.
[9] Zhao, Z.Q., Zheng, P., Xu, S.T., Wu, X. Object detection with
deep learning: A review, 2018, arXiv e-prints,
arXiv:1807.05511.
[10] Palubinskas, G., Kurz, F., Reinartz, P. Model based traffic
congestion detection in optical remote sensing imagery.
European Transport Research Review, 2010, 2(2), 85–92.

ISBN: 978-604-80-5076-4

[11] K. He, X. Zhang, S. Ren, and J. Sun. Deep residual learning for
image recognition. In Proceedings of the IEEE conference on
computer vision and pattern recognition, 2016.
[12] The MathWorks, Inc ,Convolutional Neural Network,
/>solutions/deeplearning/convolutional-neural-network.html, truy cập ngày 5
tháng 9 năm 2020.
[13] Joseph
Redmon,
Ali
Farhadi,
YOLOv3:
AnIncrementalImprovement, cornell university, New York,
2018.
[14] Renu Khandelwal, Object Detection with YOLOv3 using

Keras, Jul 28, 2019, truy cập ngày
12 tháng 9 năm 2020.
[15] Song, H., Liang, H., Li, H. et al. Vision-based vehicle detection
and counting system using deep learning in highway scenes.
Eur. Transp. Res. Rev. 11, 51, 2019.
[16] Kolcheck K., Wang Z., Xu H., Zheng J.Y. Visual Counting of
Traffic Flow from a Car via Vehicle Detection and Motion
Analysis. In: Palaiahnakote S., Sanniti di Baja G., Wang L., Yan
W. (eds) Pattern Recognition. ACPR 2019. Lecture Notes in
Computer Science, vol 12046. Springer, Cham. 2020,
/>[17] Xin Nie, Meifang Yang, Ryan Wen Liu. Deep Neural NetworkBased Robust Ship Detection Under Different Weather
Conditions, University of Technology, Wuhan, China, 2019.
[18] Ali Farhadi, YOLO: Real-Time Object Detection ,
truy cập ngày 12 tháng 9
năm 2020.

96



×