Tải bản đầy đủ (.pdf) (32 trang)

báo cáo project mô hình học máy cho bài toán nhận diện cảm xúc gương mặt

Bạn đang xem bản rút gọn của tài liệu. Xem và tải ngay bản đầy đủ của tài liệu tại đây (4.55 MB, 32 trang )

<span class="text_page_counter">Trang 1</span><div class="page_container" data-page="1">

<b>TRƯỜNG ĐẠI HỌC BÁCH KHOA HÀ NỘI</b>

<b>VIỆN CÔNG NGHỆ THÔNG TIN & TRUYỀN THÔNG</b>

<b>BÁO CÁO PROJECTĐề tài: Mơ hình học máy cho bài tốn</b>

<b>Nhận diện cảm xúc gương mặt</b>

<b>Giảng viên hướng dẫn: TS. Trần Việt TrungSinh viên thực hiện:</b>

</div><span class="text_page_counter">Trang 2</span><div class="page_container" data-page="2">

<i><b>Lời nói đầu...6</b></i>

<i><b>Chương 1: Tổng quan về đề tài...7</b></i>

<b>1. Giới thiệu bài toán...7</b>

<i><b>Chương 2: Khảo sát các bài nghiên cứu...12</b></i>

<b>1. Facial Emotion Recognition: State of the Art Performance onFER2013...12</b>

a. Ý tưởng của đề tài...12

<i><b>Chương 3: Các kết quả huấn luyện mơ hình...17</b></i>

<b>1. Facial Emotion Recognition: State of the Art Performance onFER2013...17</b>

a. VGGNet...17

b. EfficientNet b3...192

</div><span class="text_page_counter">Trang 4</span><div class="page_container" data-page="4">

<b>Phân chia công việc</b>

Dương Ngô KiênTạ Hữu Đăng

Đỗ Đức TiếnKiều Trọng Thành

4

</div><span class="text_page_counter">Trang 5</span><div class="page_container" data-page="5">

<b>Danh mục hình ảnh</b>

<small>Hình 1: Kiến trúc nhận diện cảm xúc gương mặt theo phương pháp truyền thống...8</small>

<small>Hình 2: Kiến trúc nhận diện cảm xúc gương mặt theo phương pháp học sâu...9</small>

<small>Hình 3: Mơ hình VGGNet...12</small>

<small>Hình 4: Kết quả của mơ hình với các Optimizer và LR Scheduler khác nhau...13</small>

<small>Hình 5: Mơ hình WSCNet...14</small>

<small>Hình 6: Q trình tạo Sentiment map...15</small>

<small>Hình 7: Kết quả training VGG16 với Optimizer SGD và Scheduler RLRP...18</small>

<small>Hình 8: Kết quả training VGG16 với Optimizer Adadelta và Scheduler CosineWR...18</small>

<small>Hình 9: Kết quả training EfficientNet b3 với Optimizer SGD và Scheduler RLRP...19</small>

<small>Hình 10: Kết quả training EfficientNet b3 với Optimizer SGD và Scheduler RLRP...20</small>

<small>Hình 11: Kết quả training Resnet 50 với Optimizer SGD và Scheduler RLRP...20</small>

<small>Hình 12: Kết quả training Resnet 101 với Optimizer SGD và Scheduler RLRP...21</small>

<small>Hình 13: Kết quả training Resnet18 với Optimizer SGD và Scheduler RLRP...24</small>

<small>Hình 14: Kết quả training Resnet18 với Optimizer SGD và Scheduler StepLR...25</small>

<small>Hình 15: Kết quả training Resnet34 với Optimizer SGD và Scheduler StepLR...26</small>

<small>Hình 16: Kết quả training Resnet50 với Optimizer SGD và Scheduler StepLR...27</small>

<small>Hình 17: Kết quả training Resnet101 với Optimizer SGD và Scheduler StepLR...27</small>

<small>Hình 18: Thử nghiệm Ten-crop...29</small>

<small>Hình 19: Các kết quả training VGGNet với Optimizer và Scheduler khác nhau...30</small>

5

</div><span class="text_page_counter">Trang 6</span><div class="page_container" data-page="6">

<b>Lời nói đầu</b>

Nhận diện cảm xúc khn mặt là một đề tài khá quen thuộc, được chú trọng nghiên cứu và phát triển vì tính ứng dụng của nó. Việc dự đốn cảm xúc gương mặt có thể được ứng dụng trong nhiều lĩnh vực từ y tế, giáo dục, kinh doanh chotới giải trí và chăm sóc khách hàng. Tuy nhiên, việc huấn luyện cho mơ hình có thể xác định được chính xác biểu cảm của gương mặt là không hề đơn giản. Lý do là bởi vì cảm xúc của gương mặt rất phức tạp, các biểu cảm phải được phân tích từ tất cả các đặc điểm trên gương mặt từ mắt, mũi, môi, lông mày,...

Trong các nghiên cứu hiện nay, với tập dữ liệu FER-2013, người ta đã đạt được độ chính xác cao nhất là 73.28% với mơ hình VGGNet khi không sử dụng thêm tập dữ liệu nào khác, và đạt tới 76.82% khi sử dụng thêm tập dữ liệu khác.Với bộ AffectNet, độ chính xác cao nhất đạt 65.69% với 7 loại cảm xúc và 62.09% với 8 loại cảm xúc.

Vì vậy, với mơn học Project, nhóm chúng em sẽ tìm hiểu các bài nghiên cứu mới nhất của đề tài “Nhận diện cảm xúc gương mặt”, tiến hành training từ mơ hình gốc của bài nghiên cứu. Sau đó nhóm chúng em cũng nghiên cứu thay đổi mơ hình để đưa ra các kết quả, từ đó có thể đưa ra các kết luận cho đề tài này nói riêng và cho bài tốn phân loại bằng mơ hình học sâu nói chung.

Bài báo cáo được chia thành 4 chương:Chương 1: Tổng quan về đề tài

Chương 2: Các phương pháp phát triển bài toánChương 3: Các kết quả huấn luyện mơ hìnhChương 4: Nhận xét các mơ hình

6

</div><span class="text_page_counter">Trang 7</span><div class="page_container" data-page="7">

<b>Chương 1: Tổng quan về đề tài</b>

<b>1. Giới thiệu bài tốn</b>

Với sự phát triển của cơng nghệ, bài tốn nhận diện cảm xúc khn mặtđã được chú trọng nghiên cứu nhờ tính ứng dụng trong thực tiễn. Bài tốnnhằm xây dựng mơ hình huấn luyện để phân loại cảm xúc trên gương mặt.Các nghiên cứu thường tập trung vào 7 loại cảm xúc chính gồm: tức giận,kinh tởm, sợ hãi, vui vẻ, bình thường, buồn bã, bất ngờ trong vơ số các biểucảm có thể có của con người. Bài tốn có đầu vào là bức ảnh tĩnh hoặc hìnhảnh khn mặt trích xuất từ camera, và đầu ra sẽ là dự đoán về cảm xúc củagương mặt đó.

<b>2. Ứng dụng</b>

Việc nhận diện cảm xúc khn mặt có thể ứng dụng trong nhiều lĩnh vựcgiúp cải thiện đời sống con người. Bao gồm các lĩnh vực như:

<b>Giáo dục: Dự đốn, theo dõi và phân tích phản ứng của người</b>

học trong thời gian thực như một thước đo cho hiệu quả của bàigiảng.

<b>Tiếp thị: Các công ty kinh doanh có thể áp dụng cơng nghệ</b>

nhận diện cảm xúc nhằm phân tích thái độ, phản ứng của kháchhàng khi phản hồi với quảng cáo, sản phẩm, bao bì hay thiết kếcửa hàng.

<b>Game: Với sự ra đời của game thực tế ảo gần với trải nghiệm</b>

thực tế. Nhận dạng cảm xúc khn mặt đóng một vai trị quantrọng để các nhà phát triển cải thiện trải nghiệm chơi trò chơi.

<b>Bảo mật: Nhận diện cảm xúc gương mặt giúp xác định hành vi</b>

đáng ngờ của một đối tượng nào đó trong đám đơng và có thểđược sử dụng để ngăn chặn tội phạm và những kẻ khủng bố.

7

</div><span class="text_page_counter">Trang 8</span><div class="page_container" data-page="8">

<b>Chăm sóc sức khỏe: Nhận diện cảm xúc gương mặt rất hữu ích</b>

trong việc tự động hóa dịch vụ y tế. Cả sức khỏe thể chất và tinhthần có thể được phân tích thơng qua ứng dụng này.

Ngồi ra hệ thống nhận diện cảm xúc khuôn mặt được ứng dụng trong rấtnhiều cuộc sống như đánh giá mức độ đau của bệnh nhân khi điều trị y tế,phát hiện nói dối, giám sát trạng thái của người lái xe, phát hiện trạng tháibuồn ngủ và đưa ra cảnh báo.

<b>3. Các phương pháp phát triển bài tốn</b>

Trong q trình nghiên cứu và phát triển, bài toán Nhận diện cảm xúc gươngmặt đã được áp dụng với hai phương pháp: Phương pháp truyền thống vàPhương pháp hiện đại.

<small>a.</small> <b>Phương pháp truyền thống</b>

Với hệ thống nhận dạng cảm xúc khuôn mặt bằng phương pháp truyềnthống thì bài tốn sẽ được xử lý qua các giai đoạn:

Tiền xử lý hình ảnh khn mặt Trích xuất đặc trưng Phân loại

<small>Hình 1: Kiến trúc nhận diện cảm xúc gương mặt theo phương pháp truyền thống</small>

<b>Tiền xử lý hình ảnh khn mặt: Là q trình được sử dụng để cải thiện</b>

hiệu suất của hệ thống, được thực hiện qua các quy trình khác nhau: cănchỉnh độ rõ, chia tỷ lệ hình ảnh, điều chỉnh độ tương phản và sử dụng cácquy trình nâng cao để cải thiện các khung biểu thức.

<b>Trích xuất đặc trưng trong thị giác máy tính: Là một giai đoạn quan</b>

trọng, giúp chuyển từ mô tả đồ họa sang mơ tả dữ liệu ẩn, trích chọn8

</div><span class="text_page_counter">Trang 9</span><div class="page_container" data-page="9">

những đặc trưng riêng nhất của hình ảnh. Sau đó những mô tả dữ liệu nàyđược sử dụng làm đầu vào cho bài toán phân loại.

<b>Phân loại: Là giai đoạn cuối cùng của hệ thống, nhằm phân loại ra các</b>

loại cảm xúc trên khuôn mặt bao gồm hạnh phúc, buồn bã, bất ngờ, tứcgiận, sợ hãi, ghê tởm và bình thường. Sử dụng các phương pháp phân loạinhư: Cây quyết định (ID3), SVM, HMM (Hidden Markov Model)...Trong đó, phân loại SVM cho độ chính xác cao nhất. Chính vì vậy, SVMlà đại diện cho phương pháp truyền thống để sử dụng cho hệ thống nhậndiện.

<small>b.</small> <b>Phương pháp hiện đại</b>

Trong phương pháp hiện đại, hệ thống nhận diện cảm xúc qua khuôn mặtđược thực hiện qua các giai đoạn:

Tiền xử lý Phân lớp Học sâu

<small>Hình 2: Kiến trúc nhận diện cảm xúc gương mặt theo phương pháp học sâu</small>

Những năm gần đây, học sâu hay còn gọi là Deep Learning là một phươngpháp tiếp cận mới, giúp hệ thống đạt được độ chính xác cao hơn so vớiphương pháp truyền thống, bởi hình ảnh sẽ khơng phải qua bước trích xuấtcác đặc trưng nữa.

<b>Tiền xử lý ảnh: Phương pháp hiện đại cũng cần phải xử lý hình ảnh đầu</b>

vào hệ thống trước quá trình trainning. Các bước thực hiện là: Căn chỉnhkhuôn mặt để phát hiện khuôn mặt, tăng dữ liệu hình ảnh đảm bảo đủ dữliệu training, cuối cùng là chuẩn hóa dữ liệu khuôn mặt. Sử dụng cácphương pháp CNN, DBN, DAE, RNN, GAN...

<b>Phân loại: Trong phương pháp truyền thống, bước trích xuất đặc trưng và</b>

bước phân loại là độc lập với nhau. Tuy nhiên, Deep Learning sẽ thực hiện9

</div><span class="text_page_counter">Trang 10</span><div class="page_container" data-page="10">

đồng thời hai quy trình đó. Hàm mất mát hay còn gọi là Loss Function sẽđược thêm vào cuối mạng để điều chỉnh lại tham số của mơ hình, thuậttốn backpropagation hay cịn gọi là lan truyền ngược được thực hiện đểtối ưu Loss Function. Sau đó, mạng sẽ trực tiếp xuất ra xác suất dự đoáncủa từng loại cảm xúc.

Số lượng: 1 triệu ảnh

Số lượng cảm xúc: 7 dạng cảm xúc Hình thức ảnh: Ảnh màu RGB

<b>b) FER2013 </b>

Nguồn download: Benchmark: lượng : 35888 ảnh (28709 ảnh cho tập training, 3589 ảnh cho tập validation, 3589 ảnh cho tập test)

Số lượng cảm xúc: 7 dạng cảm xúc

Hình thức ảnh: Ảnh đen trắng Grayscale kích thước 48x48

<b>c) Google Facial Expression Comparison Dataset </b>

Nguồn download: expression/

</div><span class="text_page_counter">Trang 11</span><div class="page_container" data-page="11">

<b>e) Real-world Affective Faces Database (RAF-DB)</b>

Nguồn download: Real-world Affective Faces (RAF) Database (whdeng.cn)

Số lượng : 29672 ảnh

Số lượng cảm xúc: 7 dạng cảm xúc

Hình thức ảnh: Ảnh màu RGB và ảnh đen trắng Grayscale

11

</div><span class="text_page_counter">Trang 12</span><div class="page_container" data-page="12">

<b>Chương 2: Khảo sát các bài nghiên cứu</b>

<b>1. Facial Emotion Recognition: State of the Art Performance on</b>

<small>a.</small> <b>Ý tưởng của đề tài</b>

Bài paper sử dụng kiến trúc VGGNet, đồng thời áp dụng nhiều thínghiệm về các thuật tốn optimization và learning rate scheduler khácnhau. Đồng thời, nhóm nghiên cứu áp dụng thêm các kỹ thuật tăng cườngdữ liệu và điều chỉnh tham số (hyperparameter) để mô hình có thể đạtđược độ chính xác là <b>73.28%</b>. Đây là độ chính xác cao nhất có thể đạtđược khi training với bộ dữ liệu FER2013 mà không sử dụng thêm bất cứtập dữ liệu nào khác.

<small>c.</small> <b>Phương pháp chính</b>

<small>Hình 3: Mơ hình VGGNet </small>

Bài paper sử dụng mơ hình VGGNet với kiến trúc như sau:

<b>4 convolutional stages3 fully connected layer</b>

Mỗi convolutional stages chứa <b>2 convolutional blocks </b>và 1<b> pooling layer</b>

max-1 convolution block bao gồm: max-1<b> convolutional layer ReLU </b>, 1

<b>activation, và 1 batch normalization layer</b>

12

</div><span class="text_page_counter">Trang 13</span><div class="page_container" data-page="13">

<b>Batch normalization được sử dụng nhằm:</b>

+ Tăng tốc độ quá trình học+ Giảm internal covariance shift

+ Tránh xảy ra gradient vanishing or explosion

<b>2 lớp fully connected đầu tiên kết hợp với ReLU activation</b>

Lớp fully connected cuối cùng dùng để phân loại

Khối convolutional stages có trách nhiệm trích xuất các đặc trưng của khn mặt

Các lớp fully connected được huấn luyện để phân loại cảm xúc khuôn mặt với đầu vào là các đặc trung được trích xuất từ các khối

convolutional stages

<small>d.</small> <b>Tập dữ liệu</b>

- Tập dữ liệu FER2013.csv

<small>e.</small> <b>Kết quả</b>

- Mơ hình đạt độ chính xác 73.28% trên tập test

<small>Hình 4: Kết quả của mơ hình với các Optimizer và LR Scheduler khác nhau</small>

13

</div><span class="text_page_counter">Trang 14</span><div class="page_container" data-page="14">

<b>5. Weakly Supervised Coupled Networks for Visual Sentiment Analysis</b>

<small>a.</small> <b>Ý tưởng đề tài</b>

Nhận dạng cảm xúc thường khó hơn so với các tác vụ nhận diện thông thường do tính chủ quan cao trong q trình nhận dạng của con người.

Hơn nữa, một vài nghiên cứu cho thấy các vùng trong 1 bức ảnh biểu thị cảm xúc khơng giống nhau.Ví dụ như EmotionROI dataset- tập dataset cung cấp các ảnh đã được localize bằng các bounding box, các box này đại diện cho các vùng biểu thị cảm xúc chính trong 1 bức ảnh

Thay vì dùng các bounding box, ý tưởng chính của Weakly Supervised Coupled Networks là tạo ra 1 ma trận trọng số (soft sentiment map) đại diện cho khả năng biểu thị cảm xúc.

o Nhánh 2 bắt localized representation bằng cách coupling sentiment map với deep features, sau đó được combined với representation tồn thể để có 1 semantic vector.

Mơ hình:

<small>Hình 5: Mơ hình WSCNet</small>

14

</div><span class="text_page_counter">Trang 15</span><div class="page_container" data-page="15">

o Ảnh đầu vào được đưa vào ResNet-101, và feature maps cuối cùng được chia ra làm hai nhánh.

o Nhánh đầu tiên:

<small>Hình 6: Quá trình tạo Sentiment map</small>

Đưa qua 1 kernel 1x1 để thu thập thông tin cho mỗi loại nhãn, có phản hồi cao với từng vùng phân biệt nhất định. Giả sử có k detectors cho mỗi class, ta đượcfeature maps mới F’ với kích thước w.h.kC (C là số nhãn)

Dùng cross-spatial pooling để tổng hợp tất cả thông tin thành 1 vector duy nhất (Gmax: Global Max Pooling):

Sau đó k đầu ra cho mỗi nhãn được tổng hợp bằng Average Pooling, giá trị được tối đa hóa bằng cách tìmtất cả các discriminative regions của 1 cảm xúc cụ thể.Vector v sau đó được đưa qua softmax layer, ta có hàm loss đầu tiên (sentiment detection loss):

15

</div><span class="text_page_counter">Trang 16</span><div class="page_container" data-page="16">

Tạo ra sentiment map: đưa các feature maps trong F’ qua AveragePooling sau đó nhân với các trọng số tương ứng trong v

o Nhánh thứ 2: Classification :

Sentiment map biểu thị các vùng phân biệt trong ảnh có nhiều thơng tin cho classification tasks.Sau khi tạo ra sentiment map M, Coupled feature maps F với M, sau đó nối (concatenate) ln với FTừ đấy tạo ra feature d bằng Global Average Pooling các feature máp dã nối ở trên , sentiment scores s(y =c | d, w ) được định nghĩa:<small>ic</small>

Hàm loss thứ hai:

o Join training process: Hàm loss chung cho cả quá trình train

16

</div><span class="text_page_counter">Trang 17</span><div class="page_container" data-page="17">

<b>Chương 3: Các kết quả huấn luyện mơ hình</b>

Trong Project này, nhóm chúng em sẽ thử nghiệm các mơ hình với bộ data <b>FER2013.csv</b> với các thông tin như sau:

- Bộ ảnh gồm 35.887 bức ảnh đen trắng, tỉ lệ 48 x 48, được chia thànhcác tập:

+ Training set: 28709 ảnh+ Validation set: 3589 ảnh+ Testing set: 3589 ảnh

- Dữ liệu bao gồm 7 loại cảm xúc khác nhau, bao gồm:+ Tức giận: 4953 ảnh

+ Ghê tởm: 547 ảnh+ Sợ hãi: 5121 ảnh+ Vui vẻ: 8989 ảnh+ Buồn: 6077 ảnh+ Ngạc nhiên: 4002 ảnh+ Bình thường: 6198 ảnh

<b>1. Facial Emotion Recognition: State of the Art Performance onFER2013</b>

<b>Lần thử nghiệm này là tái hiện lại bài paper: “Facial Emotion Recognition:State of the Art Performance on FER2013”.</b>

- Đạt độ chính xác <b>69.16%</b> trên tập test khi sử dụng Optimizer<b> SGD</b> và

<b>Scheduler ReduceLROnPlateau (RLRP) (50 epochs)</b>

17

</div><span class="text_page_counter">Trang 18</span><div class="page_container" data-page="18">

<small>Hình 7: Kết quả training VGG16 với Optimizer SGD và Scheduler RLRP</small>

- Đạt độ chính xác <b>55.67%</b> trên tập test khi sử dụng Optimizer

<b>Adadelta và Scheduler CosineWR</b> (30 epochs)

<small>Hình 8: Kết quả training VGG16 với Optimizer Adadelta và Scheduler CosineWR</small>

18

</div><span class="text_page_counter">Trang 19</span><div class="page_container" data-page="19">

- Đạt độ chính xác <b>67.51%</b> trên tập test khi sử dụng Optimizer

<b>Adagrad </b>và Scheduler<b> CosineWR</b> (30 epochs)

<small>Hình 9: Kết quả training EfficientNet b3 với Optimizer SGD và Scheduler RLRP</small>

- Đạt độ chính xác <b>69.13%</b> trên tập test khi sử dụng Optimizer<b> SGD</b> và

<b>Scheduler ReduceLROnPlateau (RLRP) (30 epochs)</b>

19

</div><span class="text_page_counter">Trang 20</span><div class="page_container" data-page="20">

<small>Hình 10: Kết quả training EfficientNet b3 với Optimizer SGD và Scheduler RLRP</small>

<small>g.</small> <b>Resnet50</b>

- Đạt độ chính xác <b>69.77%</b> trên tập test khi sử dụng Optimizer<b> SGD</b> và

<b>Scheduler ReduceLROnPlateau (RLRP) (50 epochs)</b>

<small>Hình 11: Kết quả training Resnet 50 với Optimizer SGD và Scheduler RLRP</small>

<small>h.</small> <b>Resnet101</b>

- Đạt độ chính xác <b>69.07%</b> trên tập test khi sử dụng Optimizer<b> SGD</b> và

<b>Scheduler ReduceLROnPlateau (RLRP) (30 epochs)</b>

20

</div><span class="text_page_counter">Trang 21</span><div class="page_container" data-page="21">

<small>Hình 12: Kết quả training Resnet 101 với Optimizer SGD và Scheduler RLRPi.</small> <b>Bảng tổng hợp kết quả</b>

<small>Model</small> <sup>Lầầ</sup><sub>n</sub> <small>OptimizerSchedulerKếết quảN</small>

<small>1SGD</small> <sup>ReduceLROnPlateau</sup><small>(RLRP)</small>

<small>Train accuracy86.92%Trainnhaaccuxuốốkho nả</small>

<small>và ko t eừVal accuracy72.50%</small>

<small>2SGD</small> <sup>ReduceLROnPlateau</sup><sub>(RLRP)</sub> <sub>epochs</sub><sup>60</sup>

<small>Train accuracy87.34%</small> <sub>Val a</sub><small>xuốốkho nả</small>

<small>và ko t eừVal accuracy72.00%</small> <sup>73.3352%</sup><sub>(54)</sub>

<small>3AdadeltaCosineWR</small> <sub>epochs</sub><sup>42</sup>

<small>Train accuracy51.58%</small> <sup>51.7256%</sup><sub>(41)</sub> <small>Trainacc lên</small>

<small>tăngepocthấốp lấầnVal accuracy59.13%</small> <sup>59.3759%</sup>

<small>4AdadeltaCosineWR</small> <sup>50</sup><small>epochs</small>

<small>Train accuracy51.92%</small>

<small>Acc thv i lấớVal accuracy56.98%</small>

<small>Test accuracy55.67%Test loss0.02%</small>

<small>5SGD</small> <sup>ReduceLROnPlateau</sup><sub>(RLRP)</sub> <sub>epochs</sub><sup>38/50</sup> <sup>Train accuracy</sup> <sup>77.97%</sup> <sup>D n</sup><sub>GP</sub><sup>ừ</sup><small>Val accuracy69.24%72.1092 %</small>

21

</div><span class="text_page_counter">Trang 22</span><div class="page_container" data-page="22">

<small>accuxuốốkho nả6</small>

<small>SGD</small> <sup>ReduceLROnPlateau</sup><sub>(RLRP)</sub><small>13epochs</small>

<small>và ko t eừVal accuracy70.94%72.19%</small>

<small>10SGD</small> <sup>ReduceLROnPlateau</sup><sub>(RLRP)</sub> <sub>epochs</sub><sup>50</sup>

<small>Train accuracy85.31%</small>

<small>Nh nậVal accuracy70.77%</small> <sup>72.7222%</sup><sub>(41)</sub><small>Test accuracy69.16%</small>

<small>Test loss0.02%</small>

<small>EfficientNet b3</small>

<small>1AdagradCosineAnnealingLR</small> <sub>epochs</sub><sup>30</sup>

<small>Train accuracy65.49%65.68%Nh nậVal accuracy69.21%69.35%Test accuracy67.51%</small>

<small>Test loss</small> <sup>0.01422</sup><small>42SGD</small> <sup>ReduceLROnPlateau</sup>

<small>Train accuracy73.91%</small>

<small>Nên teVal accuracy69.38%</small>

<small>Test accuracy69.13%Test loss0.02%</small>

<small>1SGD</small> <sup>ReduceLROnPlateau</sup><sub>(RLRP)</sub> <sub>epochs</sub><sup>28</sup>

<small>Train accuracy74.63%</small>

<small>D nừ</small>

<small>Val accuracy69.96%Test accuracy</small>

<small>Test loss</small>

<small>2SGD</small> <sup>ReduceLROnPlateau</sup><sub>(RLRP)</sub> <sub>epochs</sub><sup>50</sup>

<small>Train accuracy88.77%</small>

<small>Val accuracy70.72%</small> <sup>71.1619%(4</sup><sub>8)</sub><small>Test accuracy69.77%</small>

<small>Test loss0.02%Resnet10</small>

<small>1</small> <sup>1</sup> <sup>SGD</sup>

<small>Train accuracy80.45%TraiResneVal accuracy69.55%71.3291%(2</small>

22

</div>

×