Tải bản đầy đủ (.pdf) (18 trang)

ĐỒ ÁN TỐT NGHIỆP ĐẠI HỌC Đề tài: “Ứng dụng AI trong quản lý tài nguyên và búp sóng vô tuyến cho mạng 5G”

Bạn đang xem bản rút gọn của tài liệu. Xem và tải ngay bản đầy đủ của tài liệu tại đây (884.78 KB, 18 trang )

HỌC VIỆN CƠNG NGHỆ BƯU CHÍNH VIỄN THƠNG
KHOA VIỄN THƠNG I

ĐỒ ÁN TỐT NGHIỆP
Đề tài:

Ứng dụng AI trong quản lý tài ngun và búp

sóng vơ tuyến cho mạng 5G
Giáo viên hướng dẫn : Ths. Lê Tùng Hoa
Sinh viên thực hiện

: Đỗ Minh Toàn

Lớp

: D17CQVT07-B

Hà Nội 2021


NỘI DUNG

1

Chương 1: Tổng quan về Machine Learning
và Reinforcement Learning

2

Chương 2: Tổng quan về mạng thông tin di


động 5G

3

Chương 3: Ứng dụng AI quản lý tài ngun
và búp sóng vơ tuyến cho mạng 5G

4

Kết luận và kiến nghị
1


Chương 1: Tổng quan về Machine Learning và
Reinforcement Learning
Machine learning
• Supervised Learning.
• Unsupervised Learning.
• Semi-supervised
learning.


Reinforcement learning.

2


Chương 1: Tổng quan về Machine Learning và
Reinforcement Learning
Thuật toán DBSCAN

Ưu điểm:
• Khơng cần khai báo trước số lượng cụm cần phân
chia như K-mean.
• Có tốc độ tính tốn rất nhanh.
Quy trình của thuật tốn:
1. Lựa chọn một điểm dữ liệu bất kì, xác định

các điểm lõi và điểm biên thơng qua vùng lân cận
epsilon.
2. Lặp lại đệ qui tồn bộ quá trình với điểm khởi tạo là
Hình 1. 3 Quá trình lan truyền để xác định
các cụm của thuật tốn DBSCAN

các điểm dữ liệu cịn lại để xác định một cụm mới.
3


Chương 1: Tổng quan về Machine Learning và
Reinforcement Learning
Reinforcement learning
Agent
State

Reward

action

Environment

Hình 1. 4: Quy trình bài tốn

Reinforcement learning

• Environment (Mơi trường): khơng gian máy tương tác.
• Agent (Máy): chủ thể tương tác với mơi trường qua
hành động.
• Policy (Chiến thuật): chiến thuật mà máy sử dụng để
đưa ra hành động.
• State (Trạng thái): mơ tả trạng thái hiện tại của máy.
• Reward (Phần thưởng): phần thưởng từ môi trường
tương ứng với hành động được thực hiện.
• Action (Hành động): là những gì máy có thể thực hiện.

4


Chương 1: Tổng quan về Machine Learning và
Reinforcement Learning
Thuật toán Q-learning
• Phương trình đánh giá hành động 𝑄(𝑠, 𝑎):
𝑄(𝑠, 𝑎) = 𝑅(𝑠, 𝑎) + 𝛾 ෍ 𝑃(𝑠, 𝑎, 𝑠′) 𝑚𝑎𝑥𝑄 𝑠 ′ 𝑎′ ,
𝑎

𝑠′

(1.1)

• Mơi trường khơng phải bất biến mà sẽ thay đổi theo thời gian:
𝑇𝐷 𝑎, 𝑠 = 𝑅 𝑠 𝑎 + 𝛾 ෍ 𝑃 𝑠, 𝑎, 𝑠 ′ 𝑚𝑎𝑥 𝑄 𝑠 ′ , 𝑎′ − 𝑄(𝑠, 𝑎), (1.2)
𝑎


𝑠′

• Update các Q-values mới:
𝑄𝑡 𝑠, 𝑎 = 𝑄𝑡−1 𝑠, 𝑎 + 𝛼𝑇𝐷𝑡 𝑠, 𝑎

(1.3)

• 𝛼: là tốc độ học (learning rate).
• 𝑄𝑡 𝑠, 𝑎 : là Q-value hiện tại.
• 𝑄𝑡−1 𝑠, 𝑎 ): là Q-value trước đó.
5


Chương 1: Tổng quan về Machine Learning và
Reinforcement Learning
Mạng hồi quy LSTM
• Chìa khóa của LSTM là trạng thái tế bào (cell
state)
• LSTM có khả năng bỏ đi, thêm vào các thông tin
cần thiết cho trạng thái tế bào, được điều chỉnh
cẩn thận bởi các nhóm được gọi là cổng (gate).
Hình 1. 10: Mơ-đun lặp lại trong một LSTM

chứa bốn lớp tương tác

Lớp mạng
thần kinh

Hoạt động
theo chiều

kim

Lớp mạng
thần kinh

Kết hợp

Sao chép

Hình 1. 11: Các ký hiệu của mạng RNN

• Các cổng là nơi sàng lọc thơng tin đi qua nó.
• Tầng sigmoid sẽ cho đầu ra là một số trong
khoảng [0,1], mơ tả có bao nhiêu thơng tin có
thể được thơng qua.
• Một LSTM gồm có 3 cổng để duy trì và điều
hành trạng thái của tế bào.
6


Chương 2: Tổng quan về mạng thông tin di động 5G
Các yêu cầu kỹ thuật của mạng 5G
• Tốc độ dữ liệu đỉnh đường xuống là 20 Gbps và đường lên là 10 Gbps.
• Hiệu suất sử dụng phổ tần đỉnh đường xuống là 30 bit/s/Hz và đường lên là 15 bit/s/Hz.
• Tốc độ dữ liệu người dùng trải nghiệm đường xuống là 100 Mbps và đường lên là 50 Mbps.
• Lưu lượng đường xuống theo vùng 10Mb/s/m2 đối với Hotspot trong nhà.

• Độ trễ trên giao diện người dùng là 4 mili giây (ms) cho eMBB,1 ms cho URLLC, độ trễ
trên giao diện điều khiển là 20 ms.
• Mật độ kết nối: 1 triệu thiết bị/km2.

• Băng thơng tối thiểu là 100 MHz, hỗ trợ băng thông lên đến 1 GHz hoạt động ở băng tần

trên 6 GHz.
• Tốc độ di chuyển tối đa của thuê bao là 500 km/h.
7


Chương 2: Tổng quan về mạng thông tin di động 5G
Các trường hợp sử dụng mạng 5G
Băng thông rộng di động nâng cao (eMBB)
Tốc độ
Nhà thơng minh
(smart home)
Thoại
Thành phố
thơng minh

Hình ảnh 3 chiều (3D),
độ phân giải siêu cao

Truy cập băng thơng

Tính di động của

Internet vạn vật cực

rộng trong các khu
vực dày đặc

rộng mọi nơi


người dùng cao hơn

lớn

Video lan tỏa

50+ MBPS
mọi nơi

Tàu tốc độ cao

Mạng cảm biến

Thông tin liên lạc

Thông tin liên lạc

Thông tin liên lạc

Các dịch vụ như

thời gian thực cực
cao

huyết mạch

cực kỳ đáng tin cậy

phát sóng


Internet xúc giác

Thảm họa thiên
nhiên

Dịch vụ sức khỏe
điện tử

Dịch vụ phát sóng

Điện (UHD)
tốn đám
mây
Thực tế ảo tăng
Tựcường
động
hóa
Ứng dụng độ tin cậy
caotiện giao
Phương
thơng tự hành

Truyền thông máy số
lượng cực lớn (mMTC)

Truy cập băng thông

Kết nối độ tin cậy cực kỳ cao
với độ trễ thấp (URLLC)


Hình 2.3: Các nhóm ứng dụng 5G (theo ITU)

Hình 2.5: Các họ trường hợp sử dụng 5G và
các ví dụ về trường hợp liên quan
8


Chương 3: Ứng dụng AI quản lý tài nguyên và búp sóng
vơ tuyến cho mạng 5G
Giới thiệu bài tốn
Tính năng động của mạng 5G
• Tốc độ tăng trưởng chưa từng có của lưu lượng dữ
liệu di động.
• Cơng nghệ Sóng milimet (mmWave).
• Sự phân bổ người dùng và lưu lượng truy cập thay
đổi nhanh chóng.
• Phục vụ các ứng dụng yêu cầu không đồng nhất hơn
và chất lượng dịch vụ (QoS) chặt chẽ hơn.

Xem xét một mạng mmWave không đồng
nhất phục vụ người dùng URLLC và eMBB.
• DBSCAN để phân nhóm người dùng và
quản lý búp sóng.
• Deep Reinforcement Learning dựa trên
Long Short Term Memory (LSTM) để
phân bổ RB.

Việc quản lý búp sóng và phân bổ tài
ngun vơ tuyến trở nên khó khăn.


9


Chương 3: Ứng dụng AI quản lý tài nguyên và búp sóng
vơ tuyến cho mạng 5G
Mơ hình hệ thống – Mơ hình mạng

Beam 2

Beam 1

,

Beam 2
Beam 1

gNodeB

URLLC user

,

eMBB user

Hình 3.1: Mơ hình hệ thống của mạng mmWave

Mạng mmWave:
• 𝑔 ∈ 𝐺 : 5G-NodeBs (gNBs).
• 𝑢 ∈ 𝑈 : người dùng một anten.

• 𝑏 ∈ 𝐵 : búp sóng đơn.
• Các búp sóng sử dụng Phân chia tần số trực giao
Đa truy cập (OFDMA).
• RB : khối tài nguyên (gồm 12 sóng mang con).
• Các RB liền kề được nhóm lại tạo thành RBG.
• 𝑘 ∈ 𝐾 : biểu thị một RB.
• TTI : Khoảng thời gian truyền.
• Vị trí ban đầu tuân theo Quá trình Cụm Poisson.
Vectơ kênh, ℎ𝑘, , ∈ ℂ𝑀∗1 , giữa búp sóng 𝑏𝑡ℎ và người
dùng 𝑢𝑡ℎ trên RBG 𝑘𝑡ℎ được biểu diễn dưới dạng:

ℎ𝑘,

,

=𝑣

𝛼𝑘,
,

,

𝑀 1+

𝑑 𝑛,

(3.1)
10



Chương 3: Ứng dụng AI quản lý tài nguyên và búp sóng
vơ tuyến cho mạng 5G
Mơ hình hệ thống – Yêu cầu QoS
Tỷ lệ người dùng eMBB: Tổng tỷ lệ người dùng eMBB

Độ trễ và độ tin cậy của người dùng URLLC:

trên mỗi gNB.

Độ trễ của người dùng URLLC.

𝐶 = ෍ . ෍ . ෍ 𝛿𝑘,
∈𝐵

• 𝛿𝑘,

,

∈𝑈𝑏𝑒

,

𝑤𝑘, 𝑙𝑜𝑔2 1 + 𝛤𝑘,

,

,

3.2


𝐷

𝑘∈𝑘𝑏

,

= 𝐷 𝑡𝑥, + 𝐷

: là chỉ số phân bổ RBG.

• 𝑊𝑘, : là kích thước của RBG tính bằng Hz.

𝑞
,

• 𝑢𝑒 : là tập hợp người dùng eMBB thuộc búp sóng 𝑏 𝑡ℎ .

• 𝐷

ℎ𝑎𝑟𝑞
,

,

: là SINR của liên kết 𝑘, 𝑢, 𝑏

+𝐷

ℎ𝑎𝑟𝑞
,


,

(3.3)

• 𝐷 𝑡𝑥, : là độ trễ truyền.
• 𝐷

• 𝛤𝑘,

𝑞
,

𝑡ℎ .

: là độ trễ xếp hàng.

: là độ trễ truyền lại Yêu cầu lặp lại tự

động kết hợp (Hybrid Automatic Repeat
Request - HARQ).
11


Chương 3: Ứng dụng AI quản lý tài nguyên và búp sóng
vơ tuyến cho mạng 5G
Mơ hình hệ thống – Deep Q learning với DBSCAN (DQLD)
Thực hiện phân cụm khi SINR trung bình của búp
sóng giảm xuống dưới ngưỡng xác định trước.


• Agents: Mỗi gNB thực hiện DQL để phân bổ RBG
trong mỗi búp sóng của nó.
• Actions: Các Actions được định nghĩa là các RBG
được phân bổ cho người dùng trên mỗi búp sóng.

• States: Các States được xác định dựa trên phản hồi
CQI được đo lường ở người dùng.
• Reward: Chức năng reward được thiết kế để tính đến
các lớp người dùng khác nhau (tức là URLLC và

eMBB).

Chức năng reward được định nghĩa:
𝑚𝑏𝑏

𝑟𝑘, =ሼ

𝑠𝑖𝑔𝑚 𝑟𝑘,𝑏
𝑠𝑖𝑔𝑚

𝑚𝑏𝑏
𝑟𝑘,𝑏

𝐿𝐿𝑐

𝑟𝑘,𝑏

,

,


𝐶
𝐶

=1,
=2,

3.4

Trong đó:
1
𝑠𝑖𝑔𝑚 𝑥 =
,
−𝑥
1+ⅇ

3.5

Chức năng reward của người dùng eMBB
𝑙𝑙𝑐
𝑟𝑘,

𝐷 𝑄𝑜𝑆
=
,
𝐷𝑘, 𝑢

3.6

Chức năng reward của người dùng URLLC

𝑚
𝑟𝑘,

𝛤𝑘,
= 𝑄𝑆 ,
𝛤 𝑜

3.7
12


Chương 3: Ứng dụng AI quản lý tài nguyên và búp sóng
vơ tuyến cho mạng 5G
Mơ hình hệ thống – Deep Q learning với DBSCAN (DQLD)
CQI (

gNB

Next State

Cách thức hoạt động:

)

User 1

Reward

Prediction


User 2

Tranning

Experience Replay
Memory
User u
Tranning

LSTM Neural

Target

Network

Copy

LSTM

Q - values



Action ( )

Action Selection

Hình 3. 2: Sơ đồ khái niệm về Deep Q-learning
dựa trên LSTM


𝑔𝑁𝐵 có một thực thể DQL riêng biệt cho mỗi búp
sóng.
1. Các 𝑔𝑁𝐵 tính tốn states tiếp theo và rewards
tương ứng.
2. Trải nghiệm, ሼ𝑠𝑡 , 𝑎𝑡 , 𝑟𝑡 1 , 𝑠𝑡 1 }, sau đó được lưu
trữ trong bộ nhớ phát lại trải nghiệm.
3. LSTM được sử dụng để dự đoán giá trị Q của tất
cả các actions ở states tiếp theo.
4. Các giá trị Q được cung cấp cho thuật toán 𝜖 −
𝑔𝑟𝑒𝑒𝑑𝑦 để lựa chọn actions tiếp theo.
5. Thuật toán 𝜖 − 𝑔𝑟𝑒𝑒𝑑𝑦 chọn một action ngẫu
nhiên với khả năng xảy ra (𝜖) hoặc một action
tuân theo chính sách 𝑔𝑟𝑒𝑒𝑑𝑦 với xác suất (1 − 𝜖).
13


Chương 3: Ứng dụng AI quản lý tài nguyên và búp sóng
vơ tuyến cho mạng 5G
Mơ phỏng và đánh giá [01] M. Erol-Kantarci and Medhat Elsayed, "Radio Resource and Beam Management in

ECCDF

ECCDF

5GmmWave Using Clustering and Deep ReinforcementLearning," Researchgate, 2021.

Độ trễ của người dùng URLLC (mili giây)

Hình 3. 3: Độ trễ của người dùng URLLC so với
tổng tải URLLC cung cấp ([0,5, 1] Mbps)


Độ trễ của người dùng URLLC (mili giây)

Hình 3. 4: Độ trễ của người dùng URLLC so với
tổng tải URLLC cung cấp ([1,5, 2] Mbps)

Thuật toán được đề xuất được so sánh với một đường cơ sở sử dụng K-mean để phân cụm và công bằng
tỷ lệ dựa trên mức độ ưu tiên cho RA. Kết quả mô phỏng cho thấy thuật toán được đề xuất vượt trội
hơn so với đường cơ sở về độ trễ, độ tin cậy và tỷ lệ.

14


Chương 3: Ứng dụng AI quản lý tài nguyên và búp sóng
vơ tuyến cho mạng 5G
Mơ phỏng và đánh giá [01] M. Erol-Kantarci and Medhat Elsayed, "Radio Resource and Beam Management in
Thông lượng của người dùng
eMBB [Mbps]

Thông lượng của người dùng
URLLC [Mbps]

5GmmWave Using Clustering and Deep ReinforcementLearning," Researchgate, 2021.

Tổng tải cung cấp của người dùng eMBB [Mbps]

Hình 3.5: Tổng tỷ lệ người dùng eMBB so với
tổng tải eMBB cung cấp

Tổng tải cung cấp của người dùng URLLC [Mbps]


Hình 3.6: Tổng tỷ lệ người dùng URLLC so với
tổng tải URLLC cung cấp

Thuật toán được đề xuất được so sánh với một đường cơ sở sử dụng K-mean để phân cụm và công bằng
tỷ lệ dựa trên mức độ ưu tiên cho RA. Kết quả mơ phỏng cho thấy thuật tốn được đề xuất vượt trội
hơn so với đường cơ sở về độ trễ, độ tin cậy và tỷ lệ.

15


Kết luận và kiến nghị
Kết luận
• Các khái niệm cơ bản về Machine Learning và Reinforcement Learning.
• Các trường hợp và yêu cầu kỹ thuật sử dụng mạng 5G.
• Đề cập đến vấn đề phân bổ nhận biết QoS (đối với định dạng búp sóng)
và phân bổ tài nguyên trong mạng 5G.
• Đề xuất thuật tốn phân cụm trực tuyến DBSCAN để xác định số lượng
và cấu trúc của búp sóng để bao phủ người dùng mạng.
• Deep Q-learning dựa trên LSTM để thực hiện phân bổ tài nguyên trong
mỗi búp sóng.
• Kết quả mơ phỏng cho thấy rằng thuật toán được đề xuất vượt trội hơn
so với đường cơ sở về mức độ phổ biến, độ tin cậy và tỷ lệ người dùng
URLLC cũng như tỷ lệ người dùng eMBB.

Kiến nghị
• Tìm hiểu, áp dụng và thử nghiệm các thuật tốn AI khác để tìm ra một
mơ hình tối ưu nhất cho bài toán.
16



HỌC VIỆN CƠNG NGHỆ BƯU CHÍNH VIỄN THƠNG
KHOA VIỄN THƠNG I

Thank you!



×