Tải bản đầy đủ (.pdf) (53 trang)

Nghiên cứu các phương pháp tính toán độ tương tự của văn bản luật tiếng Việt.

Bạn đang xem bản rút gọn của tài liệu. Xem và tải ngay bản đầy đủ của tài liệu tại đây (1.72 MB, 53 trang )

<span class='text_page_counter'>(1)</span><div class='page_container' data-page=1>

ĐẠI HỌC QUỐC GIA HÀ NỘI
<b>TRƯỜNG ĐẠI HỌC CƠNG NGHỆ </b>


<b>NGUYỄN ĐÌNH MẠNH </b>


<b>NGHIÊN CỨU CÁC PHƯƠNG PHÁP </b>



<b>TÍNH TỐN ĐỘ TƯƠNG TỰ CỦA VĂN BẢN LUẬT </b>


<b>TIẾNG VIỆT </b>



<b>LUẬN VĂN THẠC SĨ KHOA HỌC MÁY TÍNH </b>


</div>
<span class='text_page_counter'>(2)</span><div class='page_container' data-page=2>

ĐẠI HỌC QUỐC GIA HÀ NỘI
<b>TRƯỜNG ĐẠI HỌC CÔNG NGHỆ </b>


<b>NGUYỄN ĐÌNH MẠNH </b>


<b>NGHIÊN CỨU CÁC PHƯƠNG PHÁP </b>



<b>TÍNH TỐN ĐỘ TƯƠNG TỰ CỦA VĂN BẢN LUẬT </b>


<b>TIẾNG VIỆT</b>



Ngành: Khoa học máy tính


Chuyên ngành: Khoa học máy tính
Mã Số: 8480101.01


<b>LUẬN VĂN THẠC SĨ KHOA HỌC MÁY TÍNH </b>


<b>NGƯỜI HƯỚNG DẪN KHOA HỌC: PGS.TS NGUYỄN PHƯƠNG THÁI </b>



</div>
<span class='text_page_counter'>(3)</span><div class='page_container' data-page=3>

<b>MỤC LỤC</b>


MỤC LỤC ... 3


LỜI CẢM ƠN ... 6


LỜI CAM ĐOAN ... 7


DANH MỤC KÝ HIỆU, VIẾT TẮT ... 8


DANH MỤC CÁC BẢNG ... 9


DANH MỤC ĐỒ THỊ, HÌNH VẼ ... 10


MỞ ĐẦU ... 11


CHƯƠNG 1. GIỚI THIỆU ... 12


1.1. Lý do chọn đề tài ... 12


1.2. Mục đích đề tài ... 12


1.3. Đối tượng đề tài ... 13


1.4. Phương pháp nghiên cứu ... 13


CHƯƠNG 2. KIẾN THỨC NỀN TẢNG ... 14


2.1. Đặc điểm của văn bản tiếng Việt ... 14



2.1.1. Cấu tạo từ tiếng Việt... 14


2.1.2. Biến hình từ tiếng Việt ... 15


2.1.3. Từ đồng nghĩa ... 15


2.1.4. Đặc điểm chính tả ... 15


2.2. Đặc điểm của văn bản Luật tiếng Việt ... 16


2.3. Sự khác nhau giữa văn bản tiếng Việt và văn bản luật tiếng Việt ... 17


2.4. Tổng quan về bài toán đô độ tương tự văn bản ... 17


2.4.1. Khái niệm về độ tương tự văn bản ... 17


2.4.2. Ứng dụng của bài toán đo độ tương tự giữa hai văn bản. ... 18


</div>
<span class='text_page_counter'>(4)</span><div class='page_container' data-page=4>

2.5.1. Khái niệm ... 18


2.5.2. Độ đo tương tự Jaccard ... 19


2.5.3. Độ đo TF-IDF ... 19


2.6. Phương pháp dựa trên mạng nơron học sâu. ... 19


2.6.1. Khái niệm học sâu ... 19


2.6.2. Một số ứng dụng của học sâu (Deep Learning) ... 20



2.6.3. Một số phương pháp theo hướng tiếp cận học sâu ... 22


2.6.3.1. Mơ hình biểu diễn từ bằng vector (Word2Vec). ... 22


2.6.3.2. Học chuyển (Transfer Learning) ... 29


CHƯƠNG 3. CÁC PHƯƠNG PHÁP ĐO ĐỘ TƯƠNG TỰ GIỮA CÁC VĂN BẢN 33
3.1. Tiền xử lý dữ liệu ... 33


3.2. Vector hóa văn bản và tính độ tương tự văn bản ... 33


3.2.1. Mộ số phương pháp theo tiếp cận thống kê ... 33


3.2.2. Phương pháp học sâu ... 38


3.2.2.1. Sử dụng Word2Vec ... 38


3.2.2.2. Học biểu diễn vector cho các văn bản ... 39


3.2.2.3. Áp dụng học chuyển (transfer learning) để tăng chất lượng vector biểu
diễn văn bản ... 40


3.3. Đánh giá mơ hình ... 40


CHƯƠNG 4. THỰC NGHIỆM VÀ KẾT QUẢ ... 42


4.1. Môi trường thực nghiệm và các công cụ sử dụng trong thực nghiệm ... 42


4.2. Dữ liệu ... 42



4.2.1. Thu thập dữ liệu... 42


4.2.2. Xử lý dữ liệu ... 43


</div>
<span class='text_page_counter'>(5)</span><div class='page_container' data-page=5>

4.3.1. Thực nghiệm với Phương pháp Jacard ... 44


4.3.2. Thực nghiệm với phương pháp TF-IDF ... 44


4.3.3. Thực nghiệm với phương pháp Word2Vec ... 44


4.3.4. Thực nghiệm với phương pháp Doc2Vec ... 45


4.3.5. Phương pháp học chuyển ... 45


4.4. Kết quả ... 45


4.4.1. Đánh giá các phương pháp trên văn bản tiếng Anh ... 45


4.4.2. Đánh giá các phương pháp với truy vấn là 1 văn bản ... 45


4.4.3. Đánh giá các phương pháp với truy vấn là 1 đoạn văn ngắn. ... 49


CHƯƠNG 5: KẾT LUẬN VÀ CÔNG VIỆC TRONG TƯƠNG LAI ... 51


5.1. Kết luận ... 51


5.2. Công việc trong tương lai ... 51


</div>
<span class='text_page_counter'>(6)</span><div class='page_container' data-page=6>

<b>LỜI CẢM ƠN </b>



<b>Tôi xin gửi lời cảm ơn đặc biệt tới PGS. TS Nguyễn Phương Thái, người đã định </b>
hướng đề tài và tận tình hướng dẫn chỉ bảo tơi trong suốt q trình thực hiện Luận văn cao
học này.


Tôi xin chân thành cảm ơn các Thầy, các Cô trường Đại học Công nghệ, Đại học
Quốc gia Hà Nội đã tận tình giảng dạy và truyền đạt những kiến thức, kinh nghịm quý báu
trong suốt khóa học của tơi.


Cuối cùng, tơi xin cảm ơn tới nhưng người thân, bạn bè luôn ở bên cạnh, động viên,
chia sẻ cùng tôi trong quá trình học cao học cũng như quá trình thực hiện luận văn cao học.


</div>
<span class='text_page_counter'>(7)</span><div class='page_container' data-page=7>

<b>LỜI CAM ĐOAN </b>


Tơi- Nguyễn Đình Mạnh – cam đoan luận văn này là cơng trình nghiên cứu của bản
<b>thân tơi dưới sự hướng dẫn và chỉ bảo của PGS. TS Nguyễn Phương Thái. </b>


Các kết quả nêu trong luận văn là trung thực và khơng sao chép tồn văn của bất kỳ
cơng trình nào khác.


Tơi xin hồn tồn chịu trách nhiệm và chịu mọi hình thức kỷ luật theo quy định cho
lời cam đoan này.


</div>
<span class='text_page_counter'>(8)</span><div class='page_container' data-page=8>

<b>DANH MỤC KÝ HIỆU, VIẾT TẮT </b>


<b>Kí hiệu </b> <b>Giải thích </b>


CNTT Cơng Nghệ Thơng Tin


NLP Neuro – Linguistic – Programming



RNN Recurrent Neural Network


LSTM Long Short Term Memory networks
PCFG Probabilistic Context Free Grammar


</div>
<span class='text_page_counter'>(9)</span><div class='page_container' data-page=9>

<b>DANH MỤC CÁC BẢNG</b>


<b>Bảng 1: Biểu diễn văn bản theo TF... 35 </b>


<b>Bảng 2:Biểu diễn văn bản theo IDF ... 37 </b>


<b>Bảng 3: Thống kê dữ liệu của văn bản luật ... 43 </b>


<b>Bảng 4: So sánh kết quả 2 phương pháp Word2Vec và Doc2Vec. ... 45 </b>


<b>Bảng 5: Kết quả các phương pháp theo tiếp cận thống kê. ... 46 </b>


<b>Bảng 6: Kết quả các phương pháp theo tiếp cận học sâu. ... 46 </b>


<b>Bảng 7: Kết quả của các phương pháp học chuyển cải tiến và chưa có cải tiến ... 47 </b>


</div>
<span class='text_page_counter'>(10)</span><div class='page_container' data-page=10>

<b>DANH MỤC ĐỒ THỊ, HÌNH VẼ</b>


<b>Hình 2.1: Mơ hình Word2Vec ... 23 </b>


<b>Hình 2.2: Mơ hình Skip-gram dạng tổng qt ... 23 </b>


<b>Hình 2.3: Minh họa đầu vào và đầu ra của mơ hình Skip-gram ... 24 </b>


<b>Hình 2.4: Minh họa đầu vào và đầu ra của mơ hình CBOW... 25 </b>



<b>Hình 2.5: Mơ hình CBOW dạng tổng qt ... 26 </b>


</div>
<span class='text_page_counter'>(11)</span><div class='page_container' data-page=11>

<b>MỞ ĐẦU </b>


<i>Nghị quyết số 08-NQ/TW ngày 02/01/2002 của Bộ Chính trị về “Một số nhiệm vụ </i>
<i>trọng tâm công tác tư pháp trong thời gian tới” và Nghị quyết số 49-NQ/TW ngày </i>
<i>02/06/2005 của Bộ Chính trị về “Chiến lược cải cách tư pháp đến năm 2020” đã đề ra các </i>
<i>nhiệm vụ cải cách nền tư pháp của nước ta, trong đó có nhiệm vụ “đổi mới thủ tục hành </i>
<i>chính trong cơ quan tư pháp tư pháp nhằm tạo điều kiện thuận lợi cho người dân tiếp cận </i>
<i>công lý; … từng bước thực hiện việc công khai hóa các bản án…”. Thực hiện theo chỉ đạo </i>
này các văn bản Luật đã được số hóa và phổ biến đến người dân ngày một nhiều. Lãnh đạo
ngành Tòa án cũng chỉ đạo sát sao việc ứng dụng CNTT để nâng cao hiệu quả công việc
của ngành Tịa án, cụ thể là việc phần mềm Cơng khai bản án đã được ra đời cung cấp bản
án tới người dân, để họ có thể tìm kiếm các bản án có trường hợp pháp lý tương tự trường
hợp mình đang gặp phải. Họ có thể biết trược được kết quả của việc kiện tụng, khi đó thay
vì phải đưa vụ việc ra Tịa thì một giải pháp khả thi hơn đó là hịa giải để 2 bên đều có lơi,
cũng là giảm bớt áp lực cơng việc cho ngành Tịa án. Để làm được như vậy thì phần mềm
cần phải hỗ trợ người dùng nhiều hơn nữa, không chỉ dừng lại ở việc tra cứu theo từ khóa
cơ bản mà phải hỗ trợ việc tra cứu theo nội dung ngữ nghĩa của văn bản.


Hiện nay, cũng có một vài cơng trình nghiên cứu để xuất các phương pháp khác nhau
để xác định độ tương đồng của văn bản tiếng Việt song vẫn chiếm tỉ lệ khá khiêm tốn so
với các cơng trình nghiên cứu trên văn bản tiếng Anh. Do đặc điểm của từ tiếng Việt cũng
có nhiều điểm khác với tiếng Anh, đặc biệt là văn bản Luật tiếng Việt. Việc xử lý văn bản
và xây dựng kho ngữ liệu chuẩn và đầy đủ là một thách thức lớn. Vì những lý do này,
<b>chúng tôi đã chọn đề tài luận văn là “Nghiên cứu các phương pháp tính tốn độ tương </b>
<b>tự của văn bản luật tiếng Việt” nhằm nghiên cứu các phương pháp đo độ tương tự và thử </b>
nghiện các mơ hình tính tốn độ tương tự, từ đây đưa ra để xuất mơ hình phù hợp nhất với
miền dữ liệu văn bản luật tiếng Việt.



Nội dung luật văn gồm:


 Chương 1. Giới thiệu tổng quan luận văn, mục đích và nội dung nghiên cứu.


 Chương 2. Đưa ra một cái nhìn tổng quan về các kiến thức nền tảng trong bài
toán đo độ tương tự giữa các văn bản.


 Chương 3. Các phương pháp tính toán độ tương tự cho miền dữ liệu văn bản
Luật tiếng Việt.


 Chương 4. Thể hiện chi tiết về tập dữ liệu được sử dụng, các cài đặt cho thực
nghiệm và kết quả của thực nghiệm.


 Chương 5. Tóm tắt lại cơng việc của luận văn và đưa ra các công việc trong
tương lai.


</div>
<span class='text_page_counter'>(12)</span><div class='page_container' data-page=12>

<b>CHƯƠNG 1. GIỚI THIỆU </b>
<b>1.1. Lý do chọn đề tài </b>


Nghị quyết số 08-NQ/TW ngày 02/01/2002 của Bộ Chính trị về “Một số nhiệm vụ
trọng tâm công tác tư pháp trong thời gian tới” và Nghị quyết số 49-NQ/TW ngày
02/06/2005 của Bộ Chính trị về “Chiến lược cải cách tư pháp đến năm 2020” đã đề ra các
nhiệm vụ cải cách nền tư pháp của nước ta, trong đó có nhiệm vụ “đổi mới thủ tục hành
chính trong cơ quan tư pháp tư pháp nhằm tạo điều kiện thuận lợi cho người dân tiếp cận
công lý; … từng bước thực hiện việc cơng khai hóa các bản án…”. Thực hiện theo chỉ đạo
này, các văn bản Luật đã được số hóa và phổ biến đến người dân ngày một nhiều.


Tuy nhiên, việc khai thác các thông tin tài liệu pháp lý cũng gặp rất nhiều khó khăn
do các phần mềm mới chỉ dừng lại ở mức cho phép người dùng tìm kiếm theo từ khóa,


phân loại tố tụng mà chưa cung cấp được một cơng cụ tìm kiếm theo tình huống pháp lý
mà người dân mô tả để đưa ra được văn bản pháp lý (Bản án) có độ tương tự nhất với
trường hợp pháp lý mình đang gặp phải. Hay việc đối sánh chính xác văn bản với nhau để
tìm ra sự sai sót trong áp dụng pháp luật. Nếu làm được điều này thì sẽ giải quyết được
nhưng vấn đề sau:


- Thay vì đưa nhau ra Tòa, các bên tham gia vụ việc sẽ tiến hành hòa giải bởi họ
biết trước được kết quả nếu đưa vụ án ra xét xử thông qua bản án đã từng giải
quyết trước đó. Qua đó giảm bớt áp lực cơng việc cho ngành Tịa án.


- Các nhà quản lý sẽ biết được các bản án đã ra có áp dụng pháp luật đúng hay không
thông qua việc đối sánh các bản án với nhau, nếu 2 bản án có độ tương đồng cao
mà lại có kết quả xét xử khác nhau như vậy việc áp dụng pháp luật tại 1 trong 2
bản án có vấn đề. Từ đây họ sẽ điều chỉnh để hạn chế oan sai cho người dân,
Hiện nay, cũng có một vài cơng trình nghiên cứu để xuất các phương pháp khác nhau
để xác định độ tương đồng của văn bản tiếng Việt song vẫn chiếm tỉ lệ khá khiêm tốn so
với các cơng trình nghiên cứu trên văn bản tiếng Anh. Do đặc điểm của từ tiếng Việt cũng
có nhiều điểm khác với tiếng Anh, đặc biệt lại là văn bản Luật tiếng Việt. Việc xử lý văn
bản và xây dựng được kho ngữ liệu chuẩn và đầy đủ là một vấn đến lớn. Vì những lý do
này, chúng tơi đã chọn tài liệu pháp lý làm miền dữ liệu chính cho luận văn.


<b>1.2. Mục đích đề tài </b>


Nghiên cứu tổng quan vấn đề xử lý văn bản tiếng Việt và một số phương pháp đánh
giá độ tương tự văn bản tiếng Việt.


Nghiên cứu đặc điểm của văn bản luật tiếng Việt, xây dựng mơ hình biểu diễn văn
bản luật tiếng Việt nhằm cải tiến các phép đo độ tương đồng. Thử nghiệm các phương
pháp tính toán độ tương tự văn bản và đề xuất một phương pháp phù hợp nhất với miền
dữ liệu văn bản luật tiếng Việt.



</div>
<span class='text_page_counter'>(13)</span><div class='page_container' data-page=13>

<b>1.3. Đối tượng đề tài </b>


Nghiên cứu một số mơ hình tính tốn độ tương tự văn bản cả về cú pháp và ngữ nghĩa,
xác định sự tương đồng của văn bản dựa trên từ, câu và toàn bộ văn bản và ứng dụng trong
văn bản luật tiếng Việt.


Thực nghiệm các phép đo độ tương tự đang được áp dụng từ đây đề xuất ra phương
pháp để cải thiện phép đo độ tương tự với miền dữ liệu văn bản luật tiếng Việt.


<b>1.4. Phương pháp nghiên cứu </b>


Nghiên cứu lý thuyết về mơ hình tính độ tương đồng văn bản, các mơ hình biểu diễn
văn bản và ứng dụng các mơ hình vào việc thử nghiệm các phương pháp đo độ tương tự
văn bản luật tiếng Việt.


</div>
<span class='text_page_counter'>(14)</span><div class='page_container' data-page=14>

<b>CHƯƠNG 2. KIẾN THỨC NỀN TẢNG </b>
<b>2.1. Đặc điểm của văn bản tiếng Việt </b>


Văn bản tiếng Việt là một loại hình phương tiện để ghi nhận, lưu giữ và truyền đạt
các thông tin từ chủ thể này sang chủ thể khác bằng ký hiệu gọi là chữ viết tiếng Việt. Nó
gồm tập hợp các câu có tính trọn vẹn về nội dung, hồn chỉnh về hình thức, có tính liên
kết chặt chẽ và hướng tới một mục tiêu giao tiếp nhất định. Hay nói cách khác, văn bản
tiếng Việt là một dạng sản phẩm của hoạt động giao tiếp bằng ngôn ngữ được thể hiện ở
dạng viết trên một chất liệu nào đó (giấy, bia đá,...). Văn bản bao gồm các tài liệu, tư liệu,
giấy tờ có giá trị pháp lý nhất định, được sử dụng trong hoạt động của các cơ quan Nhà
nước, các tổ chức chính trị, chính trị - xã hội, các tổ chức kinh tế... như: các văn bản pháp
luật, các công văn, tài liệu, giấy tờ.


Do văn bản được viết bằng ngơn ngữ tiếng Việt vậy nên nó mang mọi đặc điểm của


ngôn ngữ tiếng Việt.


<i><b>2.1.1. Cấu tạo từ tiếng Việt </b></i>


Tiếng Việt là ngôn ngữ khơng biến hình từ và âm tiết tính, tức là mỗi một tiếng (âm
tiết) được phát âm tách rời nhau và được thể hiện bằng một chữ viết [3]. Hai đặc trưng
này chi phối toàn bộ toàn bộ tổ chức bên trong của hệ thống ngôn ngữ Việt và cần được
chú ý khi xử lý tiếng Việt trên máy tính.


<b>a) Tiếng </b>


Tiếng là đơn vị cơ sở để cấu tạo lên từ. Tiếng là đơn vị nhỏ nhất có nội dung được thể
hiện. Xét về mặt ý nghĩa, các tiếng có thể chia thành các loại sau [2]:


- Tiếng tự thân nó đã có ý nghĩa, thường được quy chiếu vào một đối tượng, khái
niệm. Ví dụ: trời, đất, nước, cây, cỏ…


- Tiếng tự thân nó khơng có ý nghĩa, khơng được quy chiếu vào đối tượng, khái niệm
nào cả mà chúng thường đi cùng với một tiếng khác có nghĩa và làm thay đổi sắc thái
của tiếng đó, ví dụ như: (xanh) lè, (đường) xá, (nắng) nôi…


- Tiếng tự thân nó khơng có ý nghĩa nhưng có thể ghép với nhau để tạo thành từ có
nghĩa, thường xuyên gặp ở những từ mượn như phéc-mơ-tuya, a-pa-tít, mì-chính...
Trong tiếng Việt các tiếng thuộc nhóm đầu tiên chiếm đa số, các tiếng thuộc hai nhóm
sau thường chỉ chiếm số ít, đặc biệt là nhóm thứ 3, chúng thường được gọi là tiếng vô
nghĩa.


<b>b) Từ, cụm từ </b>


</div>
<span class='text_page_counter'>(15)</span><div class='page_container' data-page=15>

Từ ghép được phân thành từ ghép đẳng lập và từ ghép chính phụ. Đối với từ ghép


đẳng lập các thành phần cấu tạo từ có mối quan hệ bình đẳng với nhau về nghĩa, ví dụ: ăn
nói, bơi lội… Đối với từ ghép chính phụ, các thành phần cấu tạo từ có mối quan hệ phụ
thuộc với nhau về nghĩa, thành phần phụ có vai trị làm chun biệt hóa, tạo sắc thái cho
thành phần chính, ví dụ: hoa hồng, đường sắt…


Cụm từ là những kiến trúc gồm hai từ trở lên kết hợp với nhau theo những quan hệ
ngữ pháp nhất định. Ví dụ:


- Từ “học” là từ gồm một tiếng.
- Từ “đại học” là từ gồm hai tiếng.


- Cụm từ “khoa học máy tính” gồm 2 từ hay 4 tiếng.
<i><b>2.1.2. Biến hình từ tiếng Việt </b></i>


Tiếng Việt khơng có hiện tượng biến hình từ bằng những phụ tố mang ý nghĩa ngữ
pháp bên trong từ như tiếng Anh [3]. Tuy nhiên, tiếng Việt cũng có một số hình thức biến
hình như trường hợp thêm từ “sự” trước một động từ để biến nó thành danh từ hay thêm
tiếng “hóa” sau một danh từ để biến nó thành động từ tương đương, ví dụ như “lựa chọn”
và “sự lựa chọn”, “tin học” và “tin học hóa”.


<i><b>2.1.3. Từ đồng nghĩa </b></i>


Từ đồng nghĩa là những từ tương đồng với nhau về nghĩa nhưng khác nhau về âm
thanh và phân biệt với nhau về một vài sắc thái ngữ nghĩa hoặc phong cách nào đó, hoặc
đồng thời cả hai [3]. Những từ đồng nghĩa với nhau lập thành một nhóm gọi là nhóm đồng
nghĩa. Ví dụ: dễ, dễ dàng, dễ dãi là những nhóm từ đồng nghĩa.


Từ đồng nghĩa thực chất khơng phải là những từ trùng nhau hoàn toàn về nghĩa mà
có những khác biệt nhất định. Chính sự khác biệt đó là lí do tồn tại và làm nên sự khác
nhau giữa các từ trong một nhóm từ đồng nghĩa.



Thông thường các từ chỉ đồng nghĩa ở một nghĩa, một ngữ cảnh nào đó. Vì thế, một
từ có nhiều nghĩa (đa nghĩa) có thể tham gia vào nhiều nhóm đồng nghĩa khác nhau. Ví
dụ, từ “coi” có thể tham gia vào các nhóm như coi – xem (coi hát, xem hát), coi – giữ (coi
nhà, giữ nhà).


<i><b>2.1.4. Đặc điểm chính tả </b></i>


Đặc điểm chính tả tiếng Việt có ý nghĩa rất quan trọng trong các hệ thống xử lý dữ
liệu văn bản. Một số đặc điểm chính tả tiếng Việt cần quan tâm như [3]:


- Các tiếng đồng âm: kĩ/kỹ, lí, lý… thường bị sử dụng lẫn nhau như: lý luận, lí luận,
kĩ thuật, kỹ thuật…


- Các từ địa phương: một số từ địa phương sử dụng thay cho các từ phổ thông, chẳng
hạn: cây kiểng/cây cảnh, đờn/đàn, đậu phộng/lạc…


</div>
<span class='text_page_counter'>(16)</span><div class='page_container' data-page=16>

nguyên tắc này nên có hiện tượng dấu được đặt ở các vị trí khác nhau, chẳng hạn:
tốn, tóan, th, thúy…


- Cách viết hoa: theo quy định, chữ cái đầu câu và tên riêng phải viết hoa, tuy nhiên
vẫn tồn tại một số cách viết tuỳ tiện.


- Phiên âm tiếng nước ngoài: tồn tại cách viết giữ nguyên gốc tiếng nước ngoài và
phiên âm ra tiếng Việt, ví dụ: Singapore/Xin−ga−po.


- Từ gạch nối: do cách viết dấu gạch nối tuỳ tiện, không phân biệt được giữa nối tên
riêng hay chú thích.


Ký tự ngắt câu: sử dụng nhiều loại ký tự đặc biệt như “.”, “;”, “!”, “?”, “…” ngăn cách


giữa các câu hoặc các vế câu trong câu ghép.


<b>2.2. Đặc điểm của văn bản Luật tiếng Việt </b>
<i><b>a) Khái niệm </b></i>


Văn bản luật tiếng Việt là một bộ phận của văn bản tiếng Việt, nó mang đầy đủ đặc
<i>tính của văn bản tiếng Việt. Văn bản luật tiếng Việt hay văn bản pháp luật [4] “là một hình </i>
<i>thức để chủ thể mang thẩm quyền thể hiện ý chí, được thể hiện dưới dạng ngơn ngữ viết </i>
<i>thơng qua văn bản, bàn hành qua các hình thức, thủ tục mà pháp luật đã quy định”. </i>


Văn bản luật tiếng Việt là được chia làm 03 nhóm gồm: văn bản pháp luật, văn bản
áp dụng pháp luật và văn bản hành chính. Mỗi nhóm trong hệ thống VBPL cịn có một số
nét đặc thù về nội dung, tính chất và vai trị trong quản lý nhà nước.


<i><b> Văn bản quy phạm pháp luật </b></i>


<i>Văn bản quy phạm pháp luật [4] là văn bản do cơ quan nhà nước ban hành hoặc phối </i>
<i>hợp ban hành theo thẩm quyền, hình thức, trình tự, thủ tục được quy định trong Luật này </i>
<i>hoặc trong Luật ban hành văn bản quy phạm pháp luật của Hội đồng nhân dân, Uỷ ban </i>
<i>nhân dân, trong đó có quy tắc xử sự chung, có hiệu lực bắt buộc chung, được Nhà nước </i>
<i>bảo đảm thực hiện để điều chỉnh các quan hệ xã hội. </i>


Có hai cách để nhận biết đâu là một văn bản Quy phạm pháp luật.


- Thứ nhất là nhìn vào cách trình bày văn bản, như trong mỗi văn bản luật đều có chứa
kèm theo số năm ban hành văn bản hay có mơ típ quen thuộc như sau: Nghị quyết số
01/2005/NQ-HĐTP; điểm a và e khoản 1 Điều 93; khoản 1 Điều 133…


- Thứ hai, có thể nhận biết văn bản luật là gì thơng qua hai yếu tố là cơ quan ban hành
và loại văn bản, cụ thể như sau:



 Quốc hội ban hành Hiến pháp, luật, Nghị quyết.


 Ủy ban Thường vụ Quốc hội ban hành Nghị quyết, Pháp lệnh, Nghị quyết liên
tịch.


 Hội đồng thẩm phán Tòa án Nhân dân tối cao ban hành Nghị quyết.


 Chánh án Tòa án Nhân dân tối cao ban hành Thông tư và Thông tư liên tịch.
 …


</div>
<span class='text_page_counter'>(17)</span><div class='page_container' data-page=17>

<i>- Thứ nhất, văn bản áp dụng pháp luật ban hành ra dưới dạng quy định do những cơ </i>
quan nhà nước, cá nhân hoặc tổ chức xã hội được nhà nước ủy quyền áp dụng pháp luật
ban hành và được bảo đảm thực hiện trong trường hợp cần thiết bằng cưỡng chế nhà nước.
Chỉ những chủ thể có có thẩm quyền về những nội dung trong văn bản do pháp luật quy
định mới có thẩm quyền ban hành văn bản áp dụng pháp luật. Nếu văn bản áp dụng pháp
luật mà nội dung ban hành xác định về nội dung được ban hành bởi cá nhân hay tổ chức
mà pháp luật không quy định về thẩm quyền ban hành thuộc cá nhân hay cơ quan tổ chức
ban hành đó thì văn bản áp dụng pháp luật đó khơng có hiệu lực pháp luật.


<i>- Thứ hai, văn bản áp dụng pháp luật được thể hiện trong những hình thức pháp lý </i>
dưới các dang hình thức nhất định nhất định như: bản án, quyết định, lệnh,…


- Hình thức của văn bản pháp luật bao gồm tên gọi và thể thức của văn bản pháp luật.
Đối với văn bản áp dụng pháp luật thì tên gọi do pháp luật quy định, tùy thuộc vào tính
chất cơng việc mà văn bản áp dụng pháp luật có tên gọi khác nhau, đồng thời thông qua
tên gọi của văn bản áp dụng pháp luật ta có thể nhận biết được cơ quan nào có thẩm quyền
ban hành văn bản áp dụng pháp luật đó.


<b> Văn bản hành chính </b>



- là loại văn bản thường dùng để truyền đạt những nội dung và yêu cầu nào đó từ cấp
trên xuống hoặc bày tỏ những ý kiến, nguyện vọng của cá nhân hay tập thể tới các cơ quan
và người có quyền hạn để giải quyết.


- Văn bản hành chính là loại văn bản mang tính thơng tin quy phạm Nhà nước, cụ thể
hóa việc thi hành văn bản pháp quy, giải quyết những vụ việc cụ thể trong khâu quản lý,
như: quyết định nâng lương, quyết định kỉ luật, thông báo, giấy mời họp...


<b>2.3. Sự khác nhau giữa văn bản tiếng Việt và văn bản luật tiếng Việt </b>


Văn bản luật tiếng Việt là bộ phận của văn bản tiếng Việt do đó nó mang đầy đủ đặc
tính của văn bản tiếng Việt, chỉ khác nó chứa nhiều thuật ngữ pháp lý. Những thuật ngữ
dùng để chỉ về những khái niệm thường dùng trong khoa học pháp lý hoặc các văn bản
pháp luật và dùng để chỉ, mô tả một cách khái quát nhất, cô đọng nhất các hiện tượng, nội
dung, trạng thái pháp lý. Thuật ngữ pháp lý cốt lõi chính là những định nghĩa, khái niệm
về các hiện tượng, sự vật trong hệ quy chiếu pháp luật.


Thuật ngữ pháp lý có ý nghĩa rất lớn đối với việc nghiên cứu khoa học pháp lý cũng
có ý nghĩa quan trọng trong việc giải thích các quy định của pháp luật.


<b>2.4. Tổng quan về bài toán đô độ tương tự văn bản </b>
<i><b>2.4.1. Khái niệm về độ tương tự văn bản </b></i>


</div>
<span class='text_page_counter'>(18)</span><div class='page_container' data-page=18>

để so sánh hai hay nhiều tài liệu văn bản với nhau. Đại lượng này đặc trưng cho mức độ
liên quan về ngữ nghĩa giữa các văn bản.


Xét ví dụ gồm hai câu “Tơi thích xem phim” và “Tơi yêu phim”, Có thể thấy rằng hai
câu trên có độ tương đồng về ngữ nghĩa rất cao.



Theo tác giả Nguyễn Kim Anh [5] thì độ tương tự giữa hai văn bản ngoài việc so khớp
từ đơn giản, điểm tương tự còn được xác định dựa trên số đơn vị từ vựng xuất hiện ở cả
hai văn bản. Đặc biệt cần phải quan tâm tới hiện tượng đồng nghĩa của từ, tầm quan trọng
của từ như tần suất xuất hiện, vị trí xuất hiện của từ và câu trong văn bản.


Để xem xét độ tương tự văn bản, ta cần xét văn bản ở trong 2 khía cạnh là độ tương
tự giữa từ của hai văn bản và độ tương tự về ngữ nghĩa.


 Độ tương tự của từ là khái niệm thể hiện tỷ lệ dựa trên tập từ chung của hai văn
bản.


 Độ tương tự ngữ nghĩa là khái niệm thể hiện tỷ lệ dựa trên sự giống nhau về nội
dung ý nghĩa của tập các văn bản. Độ tương tự về ngữ nghĩa giữa 2 văn bản thể
hiện mối quan hệ về ngữ nghĩa giữa các từ, các câu trong văn bản.


Theo tác giả Đỗ Thị Thanh Nga thì độ tương tự ngữ nghĩa là khái niệm thể hiện tỷ lệ
dựa trên sự giống nhau về nội dung ý nghĩa của tập các tài liệu hoặc các thuật ngữ trong
một danh sách các thuật ngữ [1]. Độ tương đồng ngữ nghĩa phản ánh mối quan hệ ngữ
nghĩa giữa các câu và các tài liệu văn bản. Xét hai văn bản d1 và d2. Mục tiêu của luận văn


này nhắm đến việc đo lường giá trị S(d1,d2), thể hiện hiện độ tương tự giữa hai văn bản d1


và d2. Giá trị S càng cao thì sự giống nhau về ngữ nghĩa của hai văn bản càng cao.


<i><b>2.4.2. Ứng dụng của bài toán đo độ tương tự giữa hai văn bản. </b></i>


Bài toán đo độ tương tự giữa văn bản và văn bản được cả thế giới quan tâm nghiên
cứu từ rất lâu trong các ứng dụng của xử lý ngôn ngữ tự nhiên và các lĩnh vực liên quan.
Các ứng dụng phải kể đến như tìm kiếm thơng tin, các tài liệu liên quan sẽ được xếp hạng
theo thứ tự của độ tương tự. Ngồi ra, độ tương tự văn bản cịn được ứng dụng cho bài


tốn phân lớp văn bản, tóm tăt văn bản, bài toán xác định đạo văn... Gần đây nhất là bài
toán hỗ trợ pháp lý cũng đặc biệt được quan tâm và nghiên cứu.


Các phép đo độ tương tự giữa văn bản và văn bản chủ yếu dựa trên hai tiếp cận chính
là các tiếp cận thống kê và các tiếp cận dựa trên mạng nơron học sâu (deep learning)
<b>2.5. Phương pháp dựa trên thống kê. </b>


<i><b>2.5.1. Khái niệm </b></i>


</div>
<span class='text_page_counter'>(19)</span><div class='page_container' data-page=19>

xử lý nhanh, tốn ít chi phí nhưng độ chính xác khơng cao về mặt ngữ nghĩa, do chưa quan
tâm đến ngữ nghĩa trong văn bản mà chỉ quan tâm đến số lượng từ chung giữa hai văn
bản.


<i><b>2.5.2. Độ đo tương tự Jaccard </b></i>


Đây là một trong những độ đo đầu tiên được sử dụng để đánh giá mức độ tương đồng
ngữ nghĩa giữa các văn bản bằng cách so khớp mức độ trùng lặp giữa các từ của hai văn
bản với nhau. Ưu điểm của phương pháp này là tốc độ nhanh và khơng cần phải huấn
luyện mơ hình trước. Nhược điểm của phương pháp này là không so khớp được mức độ
ngữ nghĩa giữa các văn bản cũng như không biết được mức độ quan trọng khác nhau của
các từ trong văn bản. Chi tiết về phương pháp này được trình bày trong phần sau của luận
văn.


<i><b>2.5.3. Độ đo TF-IDF </b></i>


Đây là độ đo rất nổi tiếng, được sử dụng trong nhiều bài toán NLP và khai phá dữ liệu
dạng văn bản với mục đích: tính weight (độ quan trọng) của từ (word) trong một văn bản
cụ thể, văn bản đó nằm trong một tập nhiều văn bản khác nhau. Cách tiếp cận này được
sử dụng rộng rãi bởi tốc độ tính tốn nhanh và kết quả nó đem lại cũng khá tốt. Nó thường
được sử dụng để làm một bước lọc cho nhiều bài tốn. Ví dụ như bài toán hỏi-đáp theo


tiếp cận truy hồi câu trả lời [17]. Trong bài tốn này, ta đã có một ngân hàng chứa hàng
tỷ câu trả lời thuộc mọi lĩnh vực, mỗi khi có một câu hỏi, chương trình sẽ tìm câu trả lời
thích hợp trong ngân hàng câu trả lời đó. Nếu sử dụng các kĩ thuật học sâu phức tạp thì
việc tìm kiếm trong tập câu trả lời khổng lồ như vậy là không hiệu quả trong một khoảng
thời gian nhất định (các hệ thống hỏi đáp thường u cầu realtime). Chính vì thế, bước
đầu tiên chúng ta cần rút gọn tập câu trả lời tiềm năng bằng cách dùng độ đo TF-IDF để
chọn ra tốp k câu trả lời tốt nhất, sau đó mới áp dụng các kĩ thuật phức tạp khác để tìm ra
câu trả lời tốt nhất trong k câu trả lời tiềm năng kia.


Đây cũng là một tiếp cận được lựa chọn để thử nghiệm cho bài tốn của chúng tơi và
chi tiết phương pháp sẽ được trình bày trong phần sau.


<b>2.6. Phương pháp dựa trên mạng nơron học sâu. </b>
<i><b>2.6.1. Khái niệm học sâu </b></i>


<b>Học sâu (deep learning) là một chi của ngành máy học dựa trên một tập hợp các thuật </b>
tốn để cố gắng mơ hình dữ liệu trừu tượng hóa ở mức cao bằng cách sử dụng nhiều lớp
xử lý với cấu trúc phức tạp, hoặc bằng cách khác bao gồm nhiều biến đổi phi tuyến.


</div>
<span class='text_page_counter'>(20)</span><div class='page_container' data-page=20>

Các nghiên cứu trong lĩnh vực này cố gắng thực hiện các đại diện tốt hơn và tạo ra
các mơ hình để tìm hiểu các đại diện này từ dữ liệu không dán nhãn quy mô lớn. Một số
đại diện được lấy cảm hứng bởi những tiến bộ trong khoa học thần kinh và được dựa trên
các giải thích của mơ hình xử lý và truyền thông thông tin trong một hệ thống thần kinh,
chẳng hạn như mã hóa thần kinh để cố gắng để xác định các mối quan hệ giữa các kích
thích khác nhau và các phản ứng liên quan đến thần kinh trong não.


Nhiều kiến trúc mạng nơron học sâu khác đã được áp dụng cho các lĩnh vực như thị
giác máy tính, tự động nhận dạng giọng nói, xử lý ngơn ngữ tự nhiên, nhận dạng tiếng nói
và tin sinh học. Các mơ hình học sâu đã đạt được kết quả rất tốt đối với nhiều nhiệm vụ
NLP khác nhau



Hướng tiếp cận này có nhiều ứng dụng như: Hệ thống nhận diện hình ảnh như Google
Photos, Google Search, Google Drive; hay các hệ thống nhận dạng giọng nói thương mại
như Cortana, Xbox, Skype Translator…


<i><b>2.6.2. Một số ứng dụng của học sâu (Deep Learning) </b></i>


<b>a. Nhân dạng giọng nói </b>


Nhận dạng giọng nói tự động quy mơ lớn là trường hợp thành công dầu tiên và thuyết
phục nhất của học sâu. Các mạng nơ ron hồi quy LSTM có thể học các nhiệm vụ “học rất
sâu” liên quan đến các khoảng thời gian nhiều giây có chứa các sự kiện lời nói cách nhau
bởi hàng ngàn bước thời gian riêng biệt, trong đó một bước thời gian tương ứng với 10
ms. Sự ra đời của DNN (Deep Neural Network – mạng nơ ron sâu) để nhận dạng giọng
nói và LSTM đã đẩy nhanh quá trình phát triển học sâu. Ngày nay tất cả các hệ thống nhận
dạng giọng nói thương mại như Cortana, Xbox, Skype Translator… đều dựa trên học sâu.
<b>b. Dịch các ngôn ngữ </b>


Các mạng nơ-ron đã được sử dụng để thực hiện các mơ hình ngơn ngữ từ những năm
2000. LSTM đã giúp cải thiện các hệ thống dịch máy và mơ hình hóa ngơn ngữ. Các kỹ
thuật quan trọng khác trong lĩnh vực này là lấy mẫu âm tính và nhúng từ. Nhúng từ, chẳng
<b>hạn như Word2Vec [15], có thể được coi là một lớp biểu diễn trong kiến trúc học sâu, </b>
biến một từ nguyên tử thành một biểu diễn vị trí của từ so với các từ khác trong tập dữ
liệu; vị trí được biểu diễn dưới dạng một điểm trong không gian vector. Sử dụng nhúng từ
làm lớp đầu vào của RNN cho phép phân tích các câu và cụm từ bằng cách sử dụng một
ngữ pháp vector thành phần hiệu quả. Một ngữ pháp vector thành phần có thể được coi là
ngữ pháp tự do ngữ cảnh xác suất (PCFG) được thực hiện bởi một RNN. Bộ mã hóa tự
động đệ quy được xây dựng trên các từ nhúng để đánh giá độ tương tự của câu và phát
hiện phép diễn giải. Các kiến trúc Deep learning cung cấp kết quả tốt nhất cho phân tích
cấu thành, phân tích tình cảm, truy xuất thơng tin, hiểu ngơn ngữ nói, dịch máy, liên kết


thực thể theo ngữ cảnh, phân loại văn bản và các loại khác.


</div>
<span class='text_page_counter'>(21)</span><div class='page_container' data-page=21>

Trí tuệ nhân tạo đang tạo ra những tiến bộ lớn trong lĩnh vực y học. Với khả năng chuẩn
đoán bệnh ở giai đoạn sớm, AI giúp tăng khả năng ngăn chặn và chữa trị cũng như giảm chi phí
điều trị bệnh. Ngoài ra AI hỗ trợ các nhà nghiên cứu khám phá ra các phương pháp, thuốc điều
trị bệnh mới một cách hiệu quả. Mặc dùng AI đã xuất hiện nhiều trong thập kỷ qua, nhưng
những tiến bộ mới đã kích hoạt sự bùng nổ trong học sâu. Học sâu giúp các nhà nghiên
cứu phân tích dữ liệu ý tế để điều trị bệnh. Nó giúp tăng cường khả năng phân tích hình
ảnh y khoa của các bác sĩ để chuẩn đoán bệnh.


<b>d. Thị giác máy </b>


</div>
<span class='text_page_counter'>(22)</span><div class='page_container' data-page=22>

<i><b>2.6.3. Một số phương pháp theo hướng tiếp cận học sâu </b></i>


<i><b>2.6.3.1. Mơ hình biểu diễn từ bằng vector (Word2Vec). </b></i>


Để khắc phục nhược điểm của phương pháp thống kê là số chiều của một vector quá
lớn (bằng độ dài của từ điển, có thể đến cả triệu từ) và khơng quan tâm đến ngữ nghĩa của
<i>văn bản. Tác giả Tomas Mikolov và các công sự đã công bố phương pháp Word2Vec trong </i>
<i>bài báo “Distributed Representations of Words and Phrasesand their Compositionality)” </i>
<i>[10]. Đây là thuật toán theo phương pháp dự đoán (Prediction-based embedding), dự đoán </i>
học biểu diễn vector từ thông qua những từ ngữ cảnh xung quanh nhằm cải thiện khả năng
dự đoán ý nghĩa các từ.


Word2Vec là một mạng neural 2 lớp với duy nhất 1 tầng ẩn, lấy đầu vào là một corpus
lớn và sinh ra không gian vector (với số chiều khoảng vài trăm), với mỗi từ duy nhất trong
corpus được gắn với một vector tương ứng trong không gian. Các word vectors được xác
định trong không gian vector sao cho những từ có chung ngữ cảnh trong corpus được đặt
gần nhau trong khơng gian. Dự đốn chính xác cao về ý nghĩa của một từ dựa trên những
lần xuất hiện trước đây.



Nếu ta gán nhãn các thuộc tính cho một vector từ giả thiết, thì các vector được biểu
diễn theo Word2Vec sẽ có dạng như sau:


<i><b> Hai kiến trúc mạng nơron của Word2Vec: </b></i>


- Mơ hình CBOW, sử dụng từ ngữ cảnh (từ xung quanh) để dự đốn từ đích (target
word). Mơ hình này giả thiết vị trí của các từ ngữ cảnh khơng ảnh hưởng tới việc dự đốn
từ target. Ngược lại, mơ hình Skip-gram, sử dụng từ target để dự đoán những từ ngữ cảnh
xung quang nó.


</div>
<span class='text_page_counter'>(23)</span><div class='page_container' data-page=23>

<i><b>Hình 2.1: Mơ hình Word2Vec </b></i>


Thuật tốn CBOW tốn ít thời gian huấn luyện mơ hình hơn Skip-gram. Tuy nhiên,
Skip-gram có độ chính xác cao hơn và có chứa cả những từ ít xuất hiện


<b>a) Mơ hình Skip-gram </b>


<i><b>Mục tiêu: Học các vector biểu diễn cho từ </b></i>


Cho một từ cụ thể ở giữa câu (input word), nhìn vào những từ ở gần và chọn ngẫu
nhiên. Mạng neural sẽ cho chúng ta biết xác suất của mỗi từ trong từ vựng về việc trở thành
từ gần đó mà chúng ta chọn.


Dưới đây là mơ hình kiến trúc của mạng Skip-gram và cách xây dựng Dữ liệu huấn
luyện mơ hình word embeddings.


</div>
<span class='text_page_counter'>(24)</span><div class='page_container' data-page=24>

Ví dụ: Xây dựng training data với windows size = 2. Ở đây windows được hiểu như
một cửa sổ trượt qua mỗi từ. Windows size = 2 tức là lấy 2 từ bên trái và bên phải mỗi từ
trung tâm.



<i><b>Hình 2.3: Minh họa đầu vào và đầu ra của mơ hình Skip-gram </b></i>
<b>Chi tiết về mơ hình </b>


- Xây dựng bộ từ vựng.


- Biểu diễn mỗi từ thành các one-hot-vector.


- Đầu ra là một vector duy nhất, có kích thước bằng kích thước của bộ từ vựng, thể
hiện xác suất của mỗi từ được là lân cận của từ đầu vào.


- Khơng có hàm kích hoạt trên tầng ẩn.
- Hàm kích hoạt trên tầng output là softmax.


- Trong quá trình huấn luyện, input là 1 vector, ouput cũng là 1
one-hot-vector.


- Trong quá trình đánh giá sau khi huấn luyện, đầu ra phải là 1 phân bố xác suất.
<b>Vấn đề: </b>


- Kích thước mạng nơron khá lớn: Khi số chiều của vector nhúng từ được thiết lập
là 300, tập từ vựng là 10.000 từ thi mơ hình cần 3 triệu tham số. Địi hỏi chi phí
thời gian lớn để huấn luyện mơ hình bằng thuật tốn giảm gradient với kho ngữ
liệu lớn.


<b>Một số cải tiến cho mơ hình Word2Vec </b>


Có 3 cải tiến cơ bản cho mơ hình Word2Vec truyền thống:


 Xử lý các cặp từ thông dụng hoặc cụm từ như là một từ đơn.



</div>
<span class='text_page_counter'>(25)</span><div class='page_container' data-page=25>

 Sửa đổi mục tiêu tối ưu hóa bằng một kỹ thuật gọi là “Negative Sampling”.
<i><b>Cải tiến 1: Xử lý cụm từ như một từ đơn: Ví dụ các từ như “thành_phố_Cảng” có </b></i>
nghĩa khác nhau với từng từ “thành_phố” và “cảng”,... Chúng ta sẽ coi như đó là một từ
duy nhất, với word vector của riêng mình. Điều này sẽ làm tăng kích thước từ vựng.


<i><b>Cải tiến 2: Loại bỏ các từ thường xuyên lặp lại: Các từ thường xuyên lặp lại như </b></i>
“các”, “những”,… không cho chúng ta biết thêm nhiều hơn về ý nghĩa của những từ đi
kèm nó và chúng cũng xuất hiện trong ngữ cảnh của khá nhiều từ. Chúng ta sẽ xác định
xác suất loại bỏ và giữ lại một từ trong từ vựng thông qua tần suất xuất hiện của nó.


<i><b>Cải tiến 3: Negative Sampling: Mỗi mẫu huấn luyện chỉ thay đổi một tỷ lệ phần trăm </b></i>
nhỏ các trọng số, thay vì tất cả chúng. Khi huấn luyện mạng với 1 cặp từ, đầu ra của mạng
sẽ là 1 one-hot vector, neural đúng thì đưa ra 1 cịn hàng ngàn neural khác thì đưa ra 0.
Chọn ngẫu nhiên 1 số lượng nhỏ các neural “negative” kết hợp với neural “positive” để
cập nhật trọng số (chọn số negative là 5-20 hoạt động tốt với các bộ dữ liệu nhỏ, với bộ
dữ liệu lớn, số negative được thiết lập từ 2 đến5là phù hợp).


<b>b) Mơ hình CBOW </b>


Ý tưởng của mơ hình là dự đoán từ mục tiêu dựa vào các từ ngữ cảnh xung quanh nó
trong một phạm vi nhất định. Cho từ mục tiêu wc tại vị trí c trong câu văn bản, khi đó đầu


vào là các từ ngữ cảnh (wc-m, …,wc-1, wc+1, …, wc+m) xung quanh từ wc trong phạm vi m.


</div>
<span class='text_page_counter'>(26)</span><div class='page_container' data-page=26>

<i>trên câu văn bản “I have a big dog and horse” với m =1 </i>
<b> Mơ hình CBOW </b>


<i><b>Hình 2.5: Mơ hình CBOW dạng tổng qt </b></i>



Đầu vào gồm C từ ngữ cảnh,V là kích thước của tập từ vựng và hyperparameter; N là
kích thước của hidden layer. Các unit thuộc các layer kế cận nhau được kết nối theo kiểu
kết nối đầy đủ (fully connected), tức mỗi node trong hidden layer được kết nối với tất cả
các node trong layer trước.


Mỗi từ đầu vào ở vị trí thứ k trong tập từ vựng được biểu diễn bằng một one-hot vector
có dạng:


𝑥(𝑘) =


[
𝑥<sub>1</sub>
𝑥<sub>2</sub>
.
𝑥<sub>𝑘</sub>


.
𝑥<sub>𝑉</sub>]


(1)


</div>
<span class='text_page_counter'>(27)</span><div class='page_container' data-page=27>

𝑊<sub>𝑉×𝑁</sub> = [


𝑤<sub>11</sub> 𝑤<sub>12</sub> ⋯ 𝑤<sub>1𝑁</sub>
𝑤<sub>21</sub> 𝑤<sub>22</sub> … 𝑤<sub>2𝑁</sub>


⋮ ⋮ ⋱ ⋮


𝑤<sub>𝑉1</sub> 𝑤<sub>𝑉2</sub> ⋯ 𝑤<sub>𝑉𝑁</sub>



] (2)


<b>Mỗi hàng của ma trận W là một biểu diễn vector </b>𝑣<sub>𝑤</sub><b> có số chiều là N tương ứng với </b>
<i><b>một từ w trong tập từ vựng. Ma trận h với kích thước N x 1 có dạng như sau: </b></i>


ℎ =
[
ℎ<sub>1</sub>
ℎ<sub>2</sub>
.
.
.
ℎ<sub>𝑁</sub>]
(3)


Mỗi phần tử của ma trận h tương ứng với output của mỗi hidden layer unit. Activation
function của các hidden layer unit đều là hàm tuyến tính 𝜑(𝑥) = 𝑥. Ta có:


𝑊𝑇<sub>𝑥</sub>(𝑘) <sub>= [</sub>


𝑤<sub>11</sub> 𝑤<sub>12</sub> ⋯ 𝑤<sub>1𝑁</sub>
𝑤<sub>21</sub> 𝑤<sub>22</sub> … 𝑤<sub>2𝑁</sub>


⋮ ⋮ ⋱ ⋮


𝑤<sub>𝑉1</sub> 𝑤<sub>𝑉2</sub> ⋯ 𝑤<sub>𝑉𝑁</sub>
]
[
𝑥<sub>1</sub>
𝑥<sub>2</sub>


.
𝑥<sub>𝑘</sub>
.
𝑥<sub>𝑉</sub>]
(4)
=
[
𝑤<sub>𝑘1</sub>𝑥<sub>𝑘</sub>
𝑤<sub>𝑘2</sub>𝑥<sub>𝑘</sub>


.
.
.
𝑤<sub>𝑘𝑁</sub>𝑥<sub>𝑘</sub>]
=
[
𝑤<sub>𝑘1</sub>
𝑤<sub>𝑘2</sub>
.
.
.
𝑤<sub>𝑘𝑁</sub>]
=𝑊<sub>(𝑘)</sub>𝑇 = 𝑣<sub>𝑤</sub>𝑇<sub>𝑘</sub>


Sử dụng kết quả này, ta tính được h như sau:
ℎ = 1


𝐶𝑊


𝑇<sub>(𝑥</sub>(1)<sub>+ 𝑥</sub>(2) <sub>+ ⋯ + 𝑥</sub>(𝐶)<sub>) </sub> <sub> (5) </sub>



= 1
𝐶(𝑣𝑤𝐼,1


𝑇 <sub>+ 𝑣</sub>
𝑤𝐼,2


𝑇 <sub>+ ⋯ + 𝑣</sub>
𝑤𝐼,𝐶


𝑇 <sub>) </sub>


=

1


</div>
<span class='text_page_counter'>(28)</span><div class='page_container' data-page=28>

<i><b>Trong đó các one-hot vector x</b><b>(1)</b><b><sub>, …, x</sub></b><b>(c)</b><b><sub> tương ứng lần lượt với các từ ngữ cảnh đầu </sub></b></i>
<i><b>vào wI,1</b><b>,…, w</b><b>I,C</b><b> và w</b><b>0 là từ ở đầu ra của mơ hình. Từ hidden layer đến output layer là các </b></i>
trọng số được biểu diễn bằng một ma trận W’ = {𝑤′𝑖𝑗} khác với kích thước N x V có dạng


như sau:


𝑊′<sub>𝑉×𝑁</sub> = [


𝑤<sub>11</sub>′ 𝑤<sub>12</sub>′ ⋯ 𝑤<sub>1𝑉</sub>′
𝑤<sub>21</sub>′ 𝑤<sub>22</sub>′ … 𝑤<sub>2𝑉</sub>′


⋮ ⋮ ⋱ ⋮


𝑤<sub>𝑁1</sub>′ <sub>𝑤</sub>


𝑁2′ ⋯ 𝑤𝑁𝑉′



] (6)


Chúng ta sẽ tính điểm số 𝑢<sub>𝑗</sub><b> cho mỗi từ thứ j trong tập từ vựng theo công thức sau: </b>


𝑢𝑗 = 𝑣′𝑤𝑗


𝑇 <sub>ℎ </sub> <sub> </sub> <sub>(7)</sub>


Trong đó 𝑤′𝑤𝑗 là cột thứ j của ma trậ W’. Điểm số 𝑢𝑗 chính là thước đo độ khớp giữa
<i>C từ ngữ cảnh đầu vào cho trước và từ w</i>j . Chúng ta sẽ sử dụng hàm softmax để chuẩn hóa


phân phối hậu nghiệm (posterior distribution) của mỗi từ trong tập từ vựng như sau:
𝑝(𝑤<sub>𝑜</sub>|𝑤𝐼,1, … , 𝑤𝐼,𝐶) = 𝑦𝑗 =


exp (𝑢𝑗)


∑ exp (𝑢𝑉<sub>𝐽′</sub> <sub>𝑗′</sub>) (8)


<i>Trong đó yj<b> cũng chính là output của unit thứ j trong output layer. Mục tiêu của quá </b></i>


trình huấn luyện là điều chỉnh các trọng số để cực đại hóa hàm phân phối trên đối với từ
<i><b>w</b></i><b>o</b><i><b> và các từ ngữ cảnh wI,1</b><b>,…, w</b><b>I,C cho trước: </b></i>


max (𝑝(𝑤<sub>𝑜</sub>|𝑤<sub>𝐼,1</sub>, … , 𝑤<sub>𝐼,𝐶</sub>)) = max (log (𝑝(𝑤<sub>𝑜</sub>|𝑤<sub>𝐼,1</sub>, … , 𝑤<sub>𝐼,𝐶</sub><i><b>))) </b></i>
= min (−log(𝑝(𝑤<sub>𝑜</sub>|𝑤<sub>𝐼,1</sub>, … , 𝑤<sub>𝐼,𝐶</sub><i><b>))) </b></i>
<i><b> = min(E) </b></i>


(9)



Trong đó E là hàm lỗi cần được cực tiểu hóa và có cơng thức sau:


𝐸 = −log (𝑝(𝑤<sub>𝑜</sub>|𝑤𝐼,1, … , 𝑤𝐼,𝐶))


= − 𝑢<sub>𝑗</sub>∗ + log ( ∑ exp (𝑢<sub>𝑗</sub>′)


𝑉


𝑗′<sub>=1</sub>


)


= −𝑣<sub>𝑤</sub>′ 𝑇<sub>𝑜</sub>ℎ + log(∑𝑉<sub>𝑗</sub>′<sub>=1</sub>exp (𝑢<sub>𝑤</sub>′ 𝑇<sub>𝑗</sub> ℎ))


(10)


</div>
<span class='text_page_counter'>(29)</span><div class='page_container' data-page=29>

<i><b>Trong đó j* là vị trí hiện có của từ đầu ra trong output layer. Phương trình cập nhật </b></i>
các trọng số từ hidden layer đến output layer:


𝑣
𝑤<sub>𝑗</sub>′
(𝑛𝑒𝑤)


= 𝑣
𝑤<sub>𝑗</sub>′
(𝑜𝑙𝑑)


− 𝜂 . 𝜕𝐸


𝜕𝑢𝑗 . ℎ với j = 1,2,...,V (11)



Phương trình cập nhật các trọng số từ input layer đến hidden layer:


𝑣<sub>𝑤</sub>(𝑛𝑒𝑤)<sub>𝑐</sub> = 𝑣<sub>𝑤</sub>(𝑜𝑙𝑑)<sub>𝑐</sub> − 1
𝐶 . 𝜂. (


𝜕𝐸
𝜕ℎ𝑖)


𝑇


với c=1,2,...,C (12)


Trong đó 𝑣<sub>𝑤</sub><sub>𝑐</sub> là input vector tương ứng với từ thứ c trong C từ ngữ cảnh đầu vào và 𝜂


là learning rate. Sau khi quá trình huấn luyện hoàn tất, chúng ta thu được kết quả cuối
cùng của ma trận W và trận W’. Tương tự với mỗi từ 𝑤<sub>𝑗</sub> trong tập từ vựng đều tồn tại 𝑣<sub>𝑤</sub><sub>𝑗</sub>


và 𝑣′<sub>𝑤</sub><sub>𝑗</sub> là hai vector khác nhau cùng đại diện cho nó. Vector 𝑣<sub>𝑤</sub><sub>𝑗</sub>được gọi là input vector


<b>và tương ứng với hàng thứ j trong ma trận W. Vector </b>𝑣′<sub>𝑤</sub><sub>𝑗</sub><b> được gọi là output vector và </b>
<b>tương ứng với cột thứ j trong ma trận W’. Q trình huấn luyện cho các input vector tốn </b>
ít chi phí hơn trong khi q trình huấn luyện output vector tốn khá nhiều chi phí.


<i><b>2.6.3.2. Học chuyển (Transfer Learning) </b></i>


<i><b>Hình 2.6: Mơ hình học chuyển </b></i>


<b>Tranfer learning [16] là một phương pháp học máy mà trong đó, một mơ hình đã </b>
được phát triển cho một task (pretrained network) được tái sử dụng ở một task khác.


Phương pháp này mang đến một cách tiếp cận phổ biến và hiệu quả cao trong deep
learning khi bạn có một tập dữ liệu vừa và nhỏ. Pretrained network là một mạng đã lưu
trước đó, được đào tạo trên một tập dữ liệu lớn (thường là trên một task phân loại ảnh quy
mô lớn). Một số mạng pretrained thường được sử dụng như: VGG, ResNet, Inception,
Inception-ResNet, Xception....


</div>
<span class='text_page_counter'>(30)</span><div class='page_container' data-page=30>

về chủ đề. Như vậy, đây có thể được coi là sự chuyển giao thông tin từ người đã học sang
người mới học. Thơng qua transfer learning, mơ hình khơng phải học lại từ con số không
nữa, mà dựa trên những chi thức mình đã biết mà học lên tiếp, từ đó giảm chi phí huấn
luyện mơ hình giải quyết một nhiệm vụ mới.


Có 2 cách để sử dụng một pretrained network, đó là "Feature extraction", và "Fine
tuning"[8].


<i><b>a) Feature Extraction </b></i>


Trước năm 2012, hầu hết mọi mơ hình AI đều được tạo thành bởi 2 giai đoạn (hoặc
hai pha) độc lập với nhau:


<i><b>- Feature Engineering: là quá trình dựa trên những hiểu biết của con người về vấn </b></i>
đề cần giải quyết (domain knowledge) để từ đó rút ra những đặc trưng (features)
của dataset mà có thể giúp ích cho việc giải quyết vấn đề đó. Các đặc trưng này
được xây dựng một cách thủ công (hand-crafted features). Feature extractor là một
phần của mơ hình dùng để trích xuất ra đặc trưng nói chung.


<i><b>- Classifier/Regressor: dùng các thuật toán Machine Learning để học và dự đoán các </b></i>
kết quả từ những đặc trưng được tạo ra ở bước trên.


<i> So sánh phương pháp Featuriser của các hình thức cổ điển và Deep Learning hiện </i>
<i>đại. </i>



Các mô hình Deep Learning tự nó đã kết hợp hai pha này lại, các lớp ở phần đầu của
mơ hình được gọi là Feature Extractor và phần còn lại là để Classify/Regress các đặc trưng
từ phần Feature Extractor để tạo ra kết quả. Do đó phần Feature Extractor này có thể lấy
ra được những đặc trưng từ trong dataset một cách tự động trong quá trình học mà không
cần con người định nghĩa các đặc trưng như trong phương pháp Feature Engineering.


</div>
<span class='text_page_counter'>(31)</span><div class='page_container' data-page=31>

- Deep Network là end-to-end trainable model: điều này cho phép các Feature Layers
tự điều chỉnh những đặc trưng mà nó cần trích xuất để phù hợp với nhiệm vụ tương
ứng (do kết quả backpropagation từ các Classifier/Regressor cho phép Extractor
thích ứng theo yêu cầu của chúng), trong khi các cách cổ điển chỉ trích xuất đặc
trưng theo ý nghĩ của con người, một cách cố định.


- Khả năng mã hóa: Tương tự mơ hình Autoencoder, các lớp mạng đầu của các kiến
trúc mạng nơron học sâu sẽ mã hóa dữ liệu thành một tập latent variables. Các lớp
đầu đóng vai trị như Feature Layers lọc ra những đặc trưng cần thiết và mã hóa nó
(nói ngắn gọn là nén nó) thành một tập dữ liệu nhỏ hơn mà chỉ Decoder Layers của
cùng Network mới giải được. Tương tự cho các Feature Extractor khác, nó có
nhiệm vụ mã hóa input thành một mẫu phù hợp cho các lớp tiếp theo, khi cần thiết
nó sẽ thay đổi để đảm bảo những lớp kế sẽ nhận input tốt nhất.


- Đặc trưng: Mỗi loại Deep Networks riêng đều có một nền tảng lý thuyết cụ thể lý
giải tại sao loại Networks đó là Feature Extractor tốt trên loại dữ liệu nào đó.
<b>Đây là nền tảng của Học chuyển: chúng ta có thể sử dụng các bộ trích xuất đặc trưng </b>
đã được huấn luyện để trích xuất các đặc trưng cho mơ hình của chúng ta thay vì phải tạo
ra một bộ trích xuất đặc trưng mới và huấn luyện lại từ đầu. Có thể nói là thay vì chạy bộ
từ đầu đến cuối đường, chúng ta bắt taxi đến đoạn mà taxi khơng thể đi được thì chúng ta
tự đi tiếp.


<b>b) Tinh chỉnh mơ hình (Fine-Tuning) </b>



Để sử dụng các mơ hình đã được huấn luyện sẵn một cách hiệu quả, chúng ta cần phải
có 2 điều sau:


- Thêm các tầng phù hợp với bài tốn đích của chúng ta, loại bỏ các tầng của mơ
hình đã được huấn luyện mà chúng ta khơng dùng đến, nhưng phải khiến cho mơ
<b>hình trở nên hiệu quả hơn, đây là một vấn đề khó (rất rất khó) cần phải có những </b>
nghiên cứu chuyên sâu về từng tầng và mục đích của chúng.


- Có chiến lược huấn luyện thật tốt, điều này cũng khơng phải là dễ, vì nếu các bạn
huấn luyện khơng tốt thì sẽ làm mất đi tính hiệu quả của mơ hình đã được huấn
luyện (pretrained model), do đó giảm khả năng của mơ hình mà chúng ta đang huấn
luyện, thậm chí cịn tệ hơn là huấn luyện hết lại từ đầu.


Do đó, việc tinh chỉnh tham số ra đời để giúp cho có chiến lược huấn luyện hiệu quả
trên các mơ hình chuyển (transfered model) của mình.


</div>
<span class='text_page_counter'>(32)</span><div class='page_container' data-page=32>

<b>Tóm lại, Tinh chỉnh tham số là việc huấn luyện một mộ hình đã được huấn luyện </b>
trước đó nhằm mục đích tối ưu hóa độ chính xác của mơ hình này trên bài toán cụ thể.
Dưới đây là các chiến lược thường dùng:


<i><b> Khi tập dữ liệu cho bài toán cụ thể lớn và tương tự với tập dữ liệu cho bài toán gốc: </b></i>
đây là trường hợp lý tưởng, khi bạn có thể dùng trọng số của mơ hình đã được huấn
luyện để khởi tạo cho phần đã được huấn luyện, sau đó huấn luyện cả transfered
model hay chỉ với phần được thêm vào, tùy bạn.


<i><b> Khi tập dữ liệu cho bài toán cụ thể nhỏ và tương tự với tập dữ liệu cho bài tốn gốc: </b></i>
vì tập dữ liệu là nhỏ, nếu huấn luyện lại phần đã huấn luyện trước đó sẽ dẫn đến việc
bị overfitting (quá khớp), do đó chúng ta chỉ huấn luyện những lớp được thêm vào
với trọng số khởi tạo cho phần đã được huấn luyện như trên.



<i><b> Khi tập dữ liệu cho bài toán cụ thể lớn và khác biệt với tập dữ liệu cho bài tốn gốc: </b></i>
bởi vì tập dữ liệu của chúng ta có sự khác biệt nên khi dùng trọng số từ các mơ hình
đã được huấn luyện sẽ làm giảm độ chính xác vì sự khác biệt trong các bài toán và
tập dữ liệu, nhưng cũng chính vì tập dữ liệu lớn nên việc huấn luyện toàn bộ
transfered model từ đầu là hiệu quả nhất, giúp cho mơ hình thích nghi tốt hơn với
tập dữ liệu này.


</div>
<span class='text_page_counter'>(33)</span><div class='page_container' data-page=33>

<b>CHƯƠNG 3. CÁC PHƯƠNG PHÁP ĐO ĐỘ TƯƠNG TỰ GIỮA CÁC VĂN BẢN </b>
Trong chương này chúng tơi sẽ trình bày phương pháp tiền xử lý dữ liệu, các phương
pháp tính độ tương đồng của văn bản, cũng như đưa ra độ đo để đánh giá sự hiệu quả của
các phương pháp đo độ tương tự trên. Qua đó có những cải tiến để làm tăng độ chính xác
của phương pháp.


<b>3.1. Tiền xử lý dữ liệu </b>


Để các phương pháp đo độ tương tự giữa các văn bản thực hiện chính xác hơn, dữ liệu
đầu vào sẽ được đưa qua một số bước tiền xử lý như sau:


 Chuyển văn bản sang dạng chữ viết thường: bước này để giảm lượng từ vựng
trong không gian dữ liệu, làm tăng tốc độ tính tốn của nhiều phương pháp mà
sử dụng từ vựng để biểu diễn vectơ cho từ.


 Tách từ: Nhiều ngơn ngữ khơng có kí tự rõ ràng để phân tách giữa các từ như
tiếng Nhật, tiếng Trung Quốc. Vì vậy ta cần thực hiện tách từ trong câu. Trong
tiếng Việt, có thể sử dụng đấu khoảng trắng “ ” làm kí tự phân tách cho các từ.


 Xóa từ dừng (stop word): Từ dừng là những từ xuất hiện phổ biến trong hầu
hết các văn bản, chúng không mang nhiều ý nghĩa nội dung trong câu cũng như
trong đoạn văn.



 Xóa kí tự đặc biệt, dấu câu: chỉ giữ lại những dấu câu chính như dấu chấm “.”,
dấu phẩy “,”, dấu hỏi chấm “?”. Còn những kí tự khác như @, #, … sẽ được
bỏ đi hết khỏi văn bản đầu vào.


 Các thao tác khác: Một số ngôn ngữ biến đổi hình thái như tiếng Anh, có thêm
thao tác tiền xử lý đưa các dạng biến thể về dạng gốc của chúng
(Lemmatization).


 Sử dụng từ điển pháp lý để giữ lại những từ ngữ pháp lý.
<b>3.2. Vector hóa văn bản và tính độ tương tự văn bản </b>


Giai đoạn này có nhiệm vụ xây dựng vector biểu diễn văn bản gồm vector đặc trưng
ngữ nghĩa và vector thứ tự từ, sử dụng danh sách các câu và các từ đã được xử lý ở trên.
Sau đó tính tốn độ tương tự của văn bản.


<i><b>3.2.1. Mộ số phương pháp theo tiếp cận thống kê </b></i>


<i><b>a) Phương pháp Jaccard </b></i>


Phương pháp Jaccard là phương pháp độ đo tương tự của hai tài liệu theo tiếp cận
thống kê. Jaccard xác định sự giống nhau giữa hai tài liệu bằng cách đo khoảng cách hai
tài liệu, khoảng cách càng gần nhau về ngữ cảnh của chúng thì hai tài liệu càng giống
nhau, tức là có bao nhiêu từ chung tồn tại trên tổng số từ.


</div>
<span class='text_page_counter'>(34)</span><div class='page_container' data-page=34>

<i>Biểu diễn toán học của Độ tương tự Jaccard giữa hai câu A và B như sau (Paul </i>
<i>Jaccard, “Etude comparative de la distribution oracle dans une portion des Alpes et des </i>
<i>Jura”. In Bulletin del la Socit Vaudoise dé Sciences Naturelles, volume 37, pages </i>
<i>547-579): </i>



Sim(A, B) = 𝐴∩𝐵


𝐴∪𝐵


Nếu 2 tài liệu giống hệt nhau thì Sim(A, B) = 1; nếu 2 tài liệu khơng có từ nào chung
thì Sim(A,B)=0.


<b>Ví dụ: </b>


doc_1 = "Xây dựng mơ hình tóm tắt văn bản tiếng Việt"
doc_2 = "Văn bản tiếng Việt"


<i><b>Tách từ: </b></i>


words_doc1= {‘Xây dựng’, ‘mơ hình’, ‘tóm tắt’, ‘văn bản’, ‘tiếng Việt’}
words_doc2= { ‘Văn bản’, ‘tiếng Việt’}


J(doc_1,doc_2) ={‘𝑋â𝑦𝑑ự𝑛𝑔’,‘𝑚ơℎì𝑛ℎ’,‘𝑡ó𝑚𝑡ắ𝑡’,‘𝑣ă𝑛𝑏ả𝑛’,‘𝑡𝑖ế𝑛𝑔𝑉𝑖ệ𝑡’}∩{‘𝑉ă𝑛𝑏ả𝑛’,‘𝑡𝑖ế𝑛𝑔𝑉𝑖ệ𝑡’}
{‘𝑋â𝑦𝑑ự𝑛𝑔’,‘𝑚ơℎì𝑛ℎ’,‘𝑡ó𝑚𝑡ắ𝑡’,‘𝑣ă𝑛𝑏ả𝑛’,‘𝑡𝑖ế𝑛𝑔𝑉𝑖ệ𝑡’}∪{‘𝑉ă𝑛𝑏ả𝑛’,‘𝑡𝑖ế𝑛𝑔𝑉𝑖ệ𝑡’}


<b> </b> <b>= </b> {‘𝑉ă𝑛𝑏ả𝑛’,‘𝑡𝑖ế𝑛𝑔𝑉𝑖ệ𝑡’}


{‘𝑋â𝑦𝑑ự𝑛𝑔’,‘𝑚ơℎì𝑛ℎ’,‘𝑡ó𝑚𝑡ắ𝑡’,‘𝑣ă𝑛𝑏ả𝑛’,‘𝑡𝑖ế𝑛𝑔𝑉𝑖ệ𝑡’}<b> = </b>
2


5<b> = 0,4 </b>


Đây là phương pháp không cần phải huấn luyện trước, với mỗi văn bản cần truy vấn
chúng tơi lặp qua tồn bộ văn bản luật trong kho dữ liệu để tính tốn và trả về tập 10 văn
bản liên quan nhất với văn bản truy vấn. Tất cả các văn bản được tách từ và xử lý trước


khi đưa vào tính tốn theo phương pháp jaccard.


<i><b>b) Phương pháp TF-IDF </b></i>


Đây là phương pháp rất nổi tiếng, được sử dụng trong nhiều bài toàn NLP và khai phá
dữ liệu dạng văn bản với mục đích: tính weight (độ quan trọng) của từ (word) trong một
văn bản cụ thể, văn bản đó nằm trong một tập nhiều văn bản khác nhau.


Cách tiếp cận TF-IDF sẽ ước lượng độ quan trọng của một từ đối với văn bản trong
<i>danh sách tập văn bản. Nguyên lý của TF-IDF là “độ quan trọng của một từ sẽ tăng lên </i>
<i>cùng với số lần xuất hiện của nó trong văn bàn và sẽ giảm xuống nếu từ đó xuất hiện </i>
<i>trong nhiều văn bản khác nhau”. Lý do là vì nếu từ đó xuất hiện trong nhiều văn bản khác </i>
nhau nghĩa là từ đó rất thơng dụng, tức nó giá trị của nó sẽ giảm xuống. ví dụ như các từ
sau: vì thế, nhưng, và ….


</div>
<span class='text_page_counter'>(35)</span><div class='page_container' data-page=35>

- Những từ có giá trị TF-IDF cao là những từ xuất hiện nhiều trong văn bản này, và
xuất hiện ít trong các văn bản khác. Việc này giúp lọc ra những từ phổ biến và giữ lại
những từ có giá trị cao (từ khố của văn bản đó).


- Trọng số wij được tính bằng tần số xuất hiện của từ khóa ti trong văn bản dj và độ


hiếm của từ khóa ti trong tập văn bản.


- Cơng thức tính wij:


Weigh(i,j) = {(1 + log(𝑓𝑖𝑗)) log (
𝑁


𝑑𝑓𝑖) 𝑛ế𝑢 𝑓𝑖𝑗 ≥ 1



0 𝑛ế𝑢 𝑓<sub>𝑖𝑗</sub> = 0
Trong đó:


 weigh(i,j): trọng số của từ thứ i trong văn bản thứ j.


 fij (term frequency): số lần xuất hiện của từ thứ i trong văn bản thứ j, fij


càng cao thì từ đó càng miêu tả tốt nội dung văn bản.


 dfi (document frequency): số văn bản có chứa từ thứ i.


<i><b>Ví dụ: cho 3 văn bản sau: </b></i>


<b>Doc1: Người lên ngựa kẻ chia bào. Rừng phong thu đã nhốm màu quan san. </b>


<b>Doc2: Ô hay buồn vương cây ngô đồng. Vàng rơi vàng rơi thu mênh mông. </b>


<b>Doc3: Mùa thu lá vàng rơi. </b>


Muc tiêu của chúng ta là tìm xem Doc3 giống với Doc2 hay Doc1 nhất.
<i><b> Bước 1: Ta tính TF –Tuần số xuất hiện của một từ </b></i>


Tính số lần xuât hiện của một từ trong một văn bản. ta có bảng sau:


<b>Doc1 </b> Người Lên Ngựa Kẻ Chia Bào Rừng Phong Thu Đã Nhuốm Màu Quan


san
san


<b>TF </b> 1 1 1 1 1 1 1 1 1 1 1 1 1 1



<b>Doc2 </b> Ô Hay Buồn Vương Cây Ngô Đồng Vàng Rơi Thu Mênh mông


<b>TF </b> 1 1 1 1 1 1 1 2 2 1 1 1


<i><b>Bảng 1: Biểu diễn văn bản theo TF </b></i>


</div>
<span class='text_page_counter'>(36)</span><div class='page_container' data-page=36>

Để giải quyết việc này chúng ta cần chuẩn hóa tần số xuất hiện của một từ trong văn bản
dựa theo kích thước của văn bản đó.


Để làm việc này ta chia số lần xuất hiện của một từ cho tổng số từ trong văn bản. Cụ
thể với Doc1 và Doc2 sau khi chuẩn hóa ta được như sau:


<b>Doc1 </b> Người Lên Ngựa Kẻ Chia Bào Rừng Phong Thu Đã Nhuốm Màu Quan san


<b>TF 0.07 0.07 0.07 0.07 0.07 0.07 0.07 0.07 0.07 0.07 0.07 </b> 0.07 0.07 0.07


<b>Doc2 Ô </b> Hay Buồn Vương Cây Ngô Đồng Vàng Rơi Thu Mênh mông
<b>TF </b> 0.07 0.07 0.07 0.07 0.07 0.07 0.07 0.14 0.14 0.07 0.07 0.07


<i><b> Bước 2: Tính IDF – tần số nghịch của một từ trong một văn bản </b></i>


Ta biết rằng trong văn bản có một số từ xuất hiện nhiều nhưng vai trò quyết định đến
độ liên quan giữa hai văn bản lại không cao. Để giảm việc này chúng ta cần.


Chúng ta tính IDF cho từng từ trong tập văn bản của chúng ta (ở đây gồm 2 văn bản
Doc1 và Doc2).


IDF(Người) = 1 + ln(Tổng số văn bản / số văn bản chứa từ “Người”)
= 1 + ln(2/1) = 1.693



Tương tự ta có bảng IDF cho các từ thuộc tập văn bản ta đang sét là Doc1 và Doc2


Từ IDF


Người 1.693


Lên 1.393


Ngựa 1.693


…. ……


Đồng 1.693


Vàng 1.693


</div>
<span class='text_page_counter'>(37)</span><div class='page_container' data-page=37>

Thu 1


… ….


<i><b>Bảng 2:Biểu diễn văn bản theo IDF </b></i>
<i><b> Bước 3: Tính TF*IDF </b></i>


Mục đích của ta là tìm xem Doc3 liên quan nhất tới Doc1 hay Doc2, ta có bảng sau:
Doc3: Mùa thu lá vàng rơi.


Doc1 Doc2


Mùa 0 0



Thu 1.693 1.693


Lá 0 0


Vàng 0 0.14*1.693= 0.237


Rơi 0 0.14*1.693= 0.237


<i><b> Bước 4 : Áp dụng độ đo Cosine để tính độ tương tự văn bản </b></i>


Ở đây ta mô tả tài liệu như một vector. Một tập hợp các tài liệu được mô hình hóa
thành các vector trong khơng gian vector. Mỗi từ trong khơng gian vector sẽ có trục của
riêng nó. Bằng cách sử dụng cơng thức ở trên, chúng ta có thể tìm ra độ tương đồng của
bất kì tài liệu nào.


Mơ hình hóa Doc3 thành vector và tính TF*IDF ta có bảng sau:


TF IDF TF*IDF


Mùa 0.2 0 0


Thu 0.2 1 0.2


Lá 0.2 0 0


Vàng 0.2 1.693 0.3386


Rơi 0.2 1.693 0.3386



</div>
<span class='text_page_counter'>(38)</span><div class='page_container' data-page=38>

<b>Cosine Similarity(Doc3, Doc1) =</b> 𝑫𝒐𝒄𝟑 .𝑫𝒐𝒄𝟏


|𝑫𝒐𝒄𝟑|∗|𝑫𝒐𝒄𝟏|

<b>=</b>

<b> 0.3854 </b>


Dot Product(Doc3, Doc1) = (0*0 + 0.2*1.693 + 0*0 + 0.3386*0.237 + 0.3386*0.237)
= 0.3386


|Doc3| = √(02 2<sub>+ 0.2</sub>2<sub>+ 0</sub>2<sub>+ 0.3386</sub>2<sub>+ 0.3386</sub>2<sub>)</sub><sub> = 0.5189 </sub>
|Doc1| = √(02 2<sub>+ 1.693</sub>2<sub>+ 0</sub>2<sub>+ 0</sub>2<sub>+ 0</sub>2<sub>)</sub><sub> = 1.693 </sub>


<b>Cosine Similarity(Doc3, Doc2) = </b> 𝑫𝒐𝒄𝟑 .𝑫𝒐𝒄𝟐


|𝑫𝒐𝒄𝟑|∗|𝑫𝒐𝒄𝟐|<b> = 0.5572 </b>


<b>Dot Product(Doc3,Doc2) = (0*0 + 0.2*1.693 + 0*0 + 0.3386*0 + 0.3386*0) </b>
<b> = 0.499 </b>


|Doc3| = √(02 2<sub>+ 0.2</sub>2<sub>+ 0</sub>2<sub>+ 0.3386</sub>2<sub>+ 0.3386</sub>2<sub>)</sub><sub> = 0.5189 </sub>
|Doc2| = √(02 2<sub>+ 1.693</sub>2<sub>+ 0</sub>2<sub>+ 0.237</sub>2<sub>+ 0.237</sub>2<sub>)</sub><sub> = 1.7258 </sub>


<b>Doc3-Doc1 </b> <b>Doc3-Doc2 </b>


Cosine Similarity 0.3854 0.5572


Bảng trên cho thấy độ tương tự tính theo độ đo cosine giữa Doc3 với Doc2 có giá trị
cao hơn giữa Doc3 với Doc1. Điều này thể hiện Doc2 chia sẻ nhiều thông tin chung với
Doc3 hơn Doc1.


Sau khi văn bản được tách từ, ta tiến hành xây dựng từ điển các từ xuất hiện trong
từng văn bản. Dựa trên từ điển vừa tạo ra, ta tiến hành tạo vector lưu trữ số lần xuất hiện


của từ trong mỗi văn bản. Số lượng từ có trong từ điển phụ thuộc vào số lượng từ trong
toàn bộ tập văn bản. Sau đó thực hiện tính TF-IDF của từng văn bản và sử dụng độ đo
cosine để tính độ tương tự giữa văn bản mẫu với các văn bản để đưa ra 10 văn bản có độ
tương tự nhất với văn bản mẫu.


<i><b>3.2.2. Phương pháp học sâu </b></i>


Ý tưởng chính của phương pháp này là biểu diễn văn bản dưới dạng 1 vector với số
chiều cố định như 300 hoặc 500. Sau đó tính độ tương tự giữa các văn bản thơng qua các
vector văn bản đó bằng cách sử dụng độ đo cosine. Dưới đây chúng tơi sẽ trình bày một
số phương pháp biểu diễn văn bản bằng các vector ngữ nghĩa.


<i><b>3.2.2.1. Sử dụng Word2Vec </b></i>


</div>
<span class='text_page_counter'>(39)</span><div class='page_container' data-page=39>

𝑣⃗<sub>𝐷𝑜𝑐</sub> = ∑ 𝐸⃗⃗<sub>𝑖</sub>


Nhưng trong 1 văn bản, giá trị của các từ là khác nhau, có những từ quan trọng mang
ý nghĩa chính của cả đoạn, có những từ ít quan trọng hơn, vì thế một phương pháp sử dụng
thêm giá trị TF-IDF của các từ được đưa ra. Vector của văn bản được biểu diễn bằng tổng
của các vector từ nhân mới giá trị TF-IDF của chúng, được tính bởi cơng thức dưới đây


𝑣⃗<sub>𝐷𝑜𝑐</sub> = ∑ 𝑇𝐹 − 𝐼𝐷𝐹(𝑖) × 𝐸⃗⃗<sub>𝑖</sub>


Trong đó, TF-IDF(i) là giá trị TF-IDF của từ thứ i, và Ei là vector của từ thứ i trong
văng bản.


<i><b>3.2.2.2. Học biểu diễn vector cho các văn bản </b></i>


Trong phần này chúng tôi sẽ giới thiệu phương pháp học trực tiếp biểu diễn vector
cho văn bản gọi là mơ hình Doc2Vec [8], nó tương tự như mơ hình Word2Vec, nhưng


thay vì biểu diễn từ thành những vector, phương pháp Doc2Vec biểu diễn văn bản thành
những vector tương ứng. Khác với cấp độ từ, cấp độ văn bản khơng có những cấu trúc
logic như từ ngữ.


<i><b> Doc2Vec được chia làm 2 model chính là: DBOW và DM </b></i>


<b>- DBOW (distributed bag of words)[8]: Mơ hình này đơn giản là không quan </b>
tâm thứ tự các từ, training nhanh hơn, khơng sử dụng local-context/neighboring. Mơ
hình chèn thêm 1 “word” là ParagraphID, ParagraphID này đại diện cho văn bản được
training. Sau khi training xong có thể hiểu các vector ParagraphID này là vector nhúng
của các văn bản.


<i><b>Mơ hình DBOW dạng tổng qt </b></i>


</div>
<span class='text_page_counter'>(40)</span><div class='page_container' data-page=40>

<i><b>Mơ hình DM dạng tổng qt </b></i>


<i><b>3.2.2.3. Áp dụng học chuyển (transfer learning) để tăng chất lượng vector biểu diễn </b></i>
<i><b>văn bản </b></i>


Hai phương pháp DBOW và DM ở trên giúp ta học được 1 vector cho văn bản trực
tiếp từ dữ liệu huấn luyện, nhưng nó chỉ tốt và hiệu quả khi dữ liệu huấn luyện đủ lớn,
thường cần tới vài triệu văn bản hoặc chục triệu, thậm chí trăm triệu văn bản. Đây thực sự
là một khó khăn cho những miền cụ thể, đặc biệt là trong miền luật, số lượng các văn bản
lại rất hạn chế, trong nghiên cứu này bộ dữ liệu thu thập gồm có 25,000 văn bản. Đây là
một vấn đề khơng chỉ cho bài tốn này nói riêng mà trong nhiều bài tốn học máy khác
nói chung đều phải đối mặt với vấn đề thiếu dữ liệu, ví dụ như bài tốn dịch máy, gán
nhãn dữ liệu, tóm tắt văn bản.


Để giải quyết cho vấn đề này, phương pháp học chuyển (transfer learning) [9] đã được
đưa ra và đem lại nhiều kết quả hứa hẹn trong nhiều ứng dụng. Trong đó bài tốn đo độ


tương tự giữa các văn bản cũng không phải là ngoại lệ. Ý tưởng của phương pháp này là
tận dụng tri thức học được từ các miền dữ liệu lớn để nâng cao chất lượng cho các miền
dữ liệu hạn chế.


Để áp dụng phương pháp học chuyển cho bài toán đo độ tương tự giữa các văn bản
luật tiếng Việt chúng tôi thực hiện đơn giản như sau:


 Bước 1: Thu thập dữ liệu các văn bản từ trên internet như các bài báo trên
wikipedia, trên các trang báo mạng như baomoi, vnexpress,... Tại bước này ta sẽ
thu thập được 1 lượng lớn các văn bản tiếng Việt gồm nhiều các chủ đề khác nhau.


 Bước 2: Tiền xử lý dữ liệu và huấn luyện mơ hình vector hóa cho các văn bản thu
được ở bước 1 bằng 2 mơ hình DBOW và DM.


 Bước 3: Sử dụng mơ hình đã huấn luyện ở bước 2 để tiếp tục huấn luyện trên dữ
liệu miền luật (fine-tuning) ở đây là trên 25,000 văn bản luật tiếng Việt đã được
thu thập.


<b>3.3. Đánh giá mơ hình </b>


</div>
<span class='text_page_counter'>(41)</span><div class='page_container' data-page=41>

được thực hiện bởi 10 chuyên gia (Thẩm phán) có chuyên môn luật tốt, những người đã
làm việc nhiều năm với các văn bản luật (Bản án). Mỗi mẫu dữ liệu gồm 1 văn bản luật
(bản án) được chọn ngẫu nhiên, sau đó các chuyên gia sẽ lựa chọn 10 văn bản luật khác
tương đồng nhất trong tổng số 25.000 văn bản luật khác. Một ràng buộc khi lựa chọn các
văn bản tương đồng là không được lựa chọn các văn bản quá giống với văn bản đưa ra về
mặt từ vựng. Mục đích khi xây dựng tập kiểm thử này là chúng tối muốn nhắm đến việc
đánh giá các mơ hình đo độ tương tự giữa các văn bản dựa trên ngữ nghĩa của chúng. Bởi
bộ dữ liệu 25.000 văn bản luật trên chủ yếu là bản án mà bản án theo tôi đánh giá và thống
kê thì có rất nhiều bản án có số lượng từ chung tuy nhiên nó lại khơng có độ tương đồng.
Khi đã có tập dữ liệu kiểm thử như trên, chúng tôi đánh giá các mơ hình dựa trên các


phương pháp sau:


Phương pháp đo độ chính xác được trình bày như cơng thức dưới đây:


Độ ℎồ𝑖 𝑡ưở𝑛𝑔 =|{𝑣ă𝑛𝑏ả𝑛𝑙𝑖ê𝑛𝑞𝑢𝑎𝑛} ∩ {𝑣ă𝑛𝑏ả𝑛𝑡𝑟ả𝑣ề}|
|{𝑣ă𝑛𝑏ả𝑛𝑙𝑖ê𝑛𝑞𝑢𝑎𝑛}|


Công thức trên đếm xem các mơ hình học máy trả về bao nhiêu văn bản đúng so với
tập kết quả được chuẩn bị bởi các chuyên gia, trong đó {văn bản liên quan} là 1 tập văn
bản liên quan tới văn bản truy vấn được chọn lựa bởi các chuyên gia, {văn bản trả về} là
tập văn bản liên quan tới văn bản truy vấn được đưa ra bởi các mơ hình tính tốn độ tương
tự giữa các văn bản. Trong phương pháp này, kết quả độ hồi tưởng sẽ nằm trong khoảng
từ 0 đến 1. Bằng 0 nghĩa là mơ hình rất tệ, 1 nghĩa là mơ hình rất tốt, trả về kết quả giống
như con người truy vấn. lớn hơn hoặc bằng 0.5 là 1 ngưỡng chấp nhận được. Kết quả cuối
cùng được tính dựa trên trung bình của 150 mẫu dữ liệu.


</div>
<span class='text_page_counter'>(42)</span><div class='page_container' data-page=42>

<b>CHƯƠNG 4. THỰC NGHIỆM VÀ KẾT QUẢ </b>


<b>4.1. Môi trường thực nghiệm và các công cụ sử dụng trong thực nghiệm </b>


Cấu hình phần cứng, phần mềm đi kèm thực nghiệm được sử dụng trong luận văn.
CPU: Intel Core i5 8600


Ram: 16 GB
Card: GTX 1080Ti


Hệ điều hành: Windows 10
<b>4.2. Dữ liệu </b>


<i><b>4.2.1. Thu thập dữ liệu </b></i>



Để thực nghiệm các phương pháp đo độ tương tự giữa các văn bản luật tiếng Việt,
chúng tôi đã thu thập được 25.000 văn bản pháp luật từ nguồn các bản án và thu thập thêm
một số bài báo pháp luật. Một số con số thống kê cho tập dữ liệu này được thể hiện ở Bảng
3. Ngoài ra, như đề cập ở phần 3.2.2.3, để phục vụ cho phương pháp học chuyển, chúng
tôi cũng thu thập dữ liệu từ nguồn wikipedia và các trang báo điện tử như baomoi.com.
Thống kê dữ liệu được mô tả trong Bảng 3.


Để đánh giá các mơ hình đo độ tương tự văn bản chúng tôi nhờ 10 chuyên gia, nhờ
họ tách ra 150 văn bản được lấy ngẫu nhiên từ tập 25.000 văn bản luật ở trên rồi nhờ 10
chuyên gia tìm các văn bản liên quan như đã trình bày ở phần 3.5 để làm tập kiểm thử.


Các chuyên gia sử dụng phần mềm số hóa bản án để từ 1 văn bản mẫu tìm ra các văn
bản có độ liên quan. Các bản án trong phần mềm số hóa đã được gán nhãn theo loại án
như: Hình sự, Dân sự, Hơn nhân Gia đình, Lao động,.. với loại án cụ thể thì các bản án
cũng được phân loại theo tội danh áp dụng cụ thể. Do đó, với 1 văn bản mẫu sau khi các
chuyên gia đọc sẽ biết được văn bản mẫu là loại án nào và áp dụng điều luật chính nào.
Như vậy việc xây dựng tập dữ liệu mẫu sẽ dễ dàng hơn rất nhiều vì với 1 bản án mẫu thì
chỉ có dưới 500 bản án cùng loại.


Mặc dù các văn bản mà tôi thu thập được đều đã được gán nhãn nhưng tôi không sử
dụng trong thời điểm này bởi các lý do sau:


- Tôi quan tâm nhiều đến độ chính xác của độ tương tự văn bản hơn là tốc độ xử lý
của phương pháp.


- Thứ hai là trong 150 mẫu thử này bao gồm các loại án khác nhau tùy thuộc vào
việc lựa chọn của các chuyên gia. Do đó, nếu sử dụng các nhãn có sẵn của văn
bản dẫn đến khi văn bản mẫu đưa vào thử nghiệm cũng phải biết trước là văn bản
đó thuộc loại án nào.



</div>
<span class='text_page_counter'>(43)</span><div class='page_container' data-page=43>

huống pháp lý mình gặp phải chứ họ khơng có kiến thức chuyên sâu để có thể
phân loại xem tình huống pháp lý mình đang gặp phải là loại án nào.


<i><b>4.2.2. Xử lý dữ liệu </b></i>


Để thực nghiệm các phương pháp đo độ tương tự giữa các văn bản luật tiếng Việt,
chúng tôi đã thu thập được 25.000 văn bản pháp luật từ nguồn các bản án và thu thập thêm
một số bài báo pháp luật. Một số con số thống kê cho tập dữ liệu này được thể hiện ở Bảng
3. Ngoài ra, như đề cập ở phần 3.2.2.3, để phục vụ cho phương pháp học chuyển, chúng
tôi cũng thu thập dữ liệu từ nguồn wikipedia và các trang báo điện tử như baomoi.com.
Thống kê dữ liệu được mô tả trong Bảng 3. Trước khi thống kê, chúng tôi đã thực hiện
tiền xử lý dữ liệu như đã trình bày ở phần trên gồm các thao tác:


 Chuyển văn bản sang dạng chữ in thường.


 Tách từ sử dụng hàm word_tokenize trong thư viện nltk của python.


 Xóa bỏ từ dừng.


 Xóa bỏ các kí tự đặc biệt, chỉ giữ chữ cái, số, dấu chấm, dấu phẩy, dấu hỏi chấm,
dấu chấm than.


(Để thống kê số câu trong 1 văn bản chúng tôi sử dụng hàm sent_tokenize trong
thư viện nltk của python).


Văn bản luật Văn bản từ
Wikipedia


Văn bản từ


baomoi.com


Số văn bản 25.000 500.000 500.000


Số câu trung bình trên 1


văn bản 50 60 65


Số từ trung bình trên 1 văn


bản 1200 1400 2000


<i><b>Bảng 3: Thống kê dữ liệu của văn bản luật </b></i>
và văn bản khác được thu thập trên internet.
<b>4.3. Thực nghiệm </b>


Để so sánh kết quả của các phương pháp đo độ tương tự giữa các văn bản đã trình bày
ở phần trên: phương pháp Jaccard, phương pháp TF-IDF, phương pháp Word2Vec,
phương pháp Doc2Vec, phương pháp học chuyển, chúng tôi thực nghiệm các phương
pháp trong 3 trường hợp sau:


 <b>Trường hợp 1: Đánh giá các phương pháp trên văn bản tiếng Anh. Trong nghiên cứu </b>


</div>
<span class='text_page_counter'>(44)</span><div class='page_container' data-page=44>

pháp Word2Vec cho độ chính xác khoảng 70% cịn Doc2Vec đạt độ chính xác 74%,
theo Gidi Shperber thì đây là kết quả tốt nhất từ trước đến nay. Đây là lý do chúng
tôi chọn các phương pháp Word2Vec và Doc2Vec như trình bày ở phần 3 để thực
nghiệm với miền dữ liệu văn bản luật tiếng Việt.


 <b>Trường hợp 2: Đánh giá các phương pháp với truy vấn là 1 văn bản: Trong các thực </b>
nghiệm này, chúng tôi sẽ đánh giá các phương pháp trên 150 văn bản luật truy vấn,


với mỗi văn bản truy vấn các phương pháp sẽ trả về 10 văn bản liên quan nhất và các
kết quả trả về này được đánh giá dựa trên hàm tính độ chính xác như đã trình bày ở
phần 3.


 <b>Trường hợp 3: Đánh giá các phương pháp với truy vấn là 1 đoạn văn ngắn: Trong </b>
các thực nghiệm thuộc trường hợp này, chúng tôi sẽ đánh giá các phương pháp trên
150 đoạn văn truy vấn. Mỗi đoạn văn truy vấn có thể gồm 1 câu hoặc 1 đoạn ngắn.
Trong thực nghiệm chúng tôi giới hạn độ dài đoạn văn truy vấn trong khoảng 10 từ
đến 50 từ, bởi vì nếu đoạn truy vấn quá ngắn thì sẽ rất chung chung và khó đánh giá
được kết quả trả về, còn nếu đoạn truy vấn quá dài thì lại gần giống với các thực
nghiệm của trường hợp 2 mà chúng tôi đánh giá và không sát với thực tế. Trong thực
tế khi người dùng muốn tìm kiếm các bản án nào đó thì họ cũng chỉ nhập 1 lượng
thông tin nhất định miêu tả 1 số hành động phạm tội. Tương tự như các thực nghiệm
ở trên, với mỗi đoạn văn truy vấn các phương pháp sẽ trả về 10 văn bản là bản án liên
quan nhất và kết quả được đánh giá bằng phương pháp tính độ chính xác mà các thực
nghiệm ở trên sử dụng.


Trong các thực nghiệm của chúng tôi, các phương pháp đều được thực hiện giống
nhau trong các trường hợp khác nhau như được trình bày dưới đây.


<i><b>4.3.1. Thực nghiệm với Phương pháp Jacard </b></i>


Phương pháp này không cần phải huấn luyện trước, trong các trường hợp, với mỗi
văn bản hoặc đoạn văn cần truy vấn chúng tơi lặp qua tồn bộ văn bản luật trong kho dữ
liệu để tính toán và trả về tập 10 văn bản liên quan nhất với văn bản hoặc đoạn văn truy
vấn.


<i><b>4.3.2. Thực nghiệm với phương pháp TF-IDF </b></i>


Để tăng tốc độ tính tốn khi truy vấn, chúng tơi tính tốn sẵn giá trị TF-IDF cho các


văn bản trong kho ngữ liệu, khi có văn bản cần truy vấn chúng ta chỉ cần tính giá trị
TF-IDF của văn bản cần truy vấn và dựa vào đó để trả về những văn bản tương tự với văn bản
truy vấn.


<i><b>4.3.3. Thực nghiệm với phương pháp Word2Vec </b></i>


</div>
<span class='text_page_counter'>(45)</span><div class='page_container' data-page=45>

<i><b>4.3.4. Thực nghiệm với phương pháp Doc2Vec </b></i>


Phương pháp học biểu diễn vector cho các văn bản sử dụng mơ hình DBOW và mơ
hình DM: Cách huấn luyện đã được trình bày ở phần 3.2.2.2, chúng tơi cũng sử dụng thư
viện fasttext với số chiều vector là 300 để huấn luyện 2 mơ hình này. Trong q trình huấn
luyện, mỗi văn bản sẽ được thêm 1 định danh ở đầu văn bản, ví dụ văn bản 1 sẽ thêm
DOCUMENT1, văn bản 2 sẽ thêm DOCUMENT2, ...


<i><b>4.3.5. Phương pháp học chuyển </b></i>


Phương pháp này đã được trình bày ở phần 3.2.2.3, chúng tơi thực nghiệm trên cả 2
mơ hình DBOW và DM, kí hiệu cho 2 mơ hình này lần lượt là TL_DBOW và TL_DM.
Cài đặt thực nghiệm giống với các thực nghiệm DBOW và DM ở thực nghiệm trước.
Trong phương pháp này, chúng tôi sẽ học các biểu diễn văn bản trên lượng lớn văn bản
thu thập từ trên mạng trước, sau đó làm mịn mơ hình trên tập dữ liệu văn bản luật.


<b>4.4. Kết quả </b>


Sau khi thực nghiệm các phương pháp chúng tôi thu được kết quả trong các trường
hợp thực nghiệm đã trình bày ở trên:


<i><b>4.4.1. Đánh giá các phương pháp trên văn bản tiếng Anh </b></i>


Do Gidi Shperber [18] không công bố tập dữ liệu đã thực nghiệm cho 2 phương pháp


Word2Vec và Doc2Vec nên chúng tôi không thể chạy lại được thực nghiệm cho văn bản
tiếng Anh. Trong trường hợp này, chúng tôi sẽ lấy kết quả của tác giả để so sánh với kết
quả chúng tôi chạy trên văn bản luật tiếng Việt với cài đặt mơ hình giống như tác giả. Mục
đích của các thực nghiệm này để kiểm tra đánh giá xem việc cài đặt, sử dụng các mơ hình
huấn luyện Word2Vec và Doc2Vec của chúng tơi có đúng khơng. Bảng 4 thể hiện kết quả
so sánh kết quả của 2 phương pháp mà Gidi Shperber thực hiện cùng với đó là kết quả do
chúng tơi thực hiện 2 phương pháp đó trên dữ liệu văn bản luật tiếng Việt. Từ kết quả ta
thấy độ chính xác của 2 phương pháp trên cho văn bản tiếng Việt không thấp hơn quá
nhiều so với văn bản tiếng Anh, lý do thấp hơn có thể do lượng dữ liệu văn bản tiếng Việt
nhỏ hơn so với lượng văn bản tiếng Anh (25.000 văn bản so với 100.000 văn bản). Kết
quả


Phương pháp Gidi Shperber
(Văn bản tiếng Anh)


Luận văn


(Văn bản luật tiếng Việt)


Word2Vec 0.7 0.588


Doc2Vec 0.74 0.68


<i><b>Bảng 4: So sánh kết quả 2 phương pháp Word2Vec và Doc2Vec.</b></i>


<i><b>4.4.2. Đánh giá các phương pháp với truy vấn là 1 văn bản </b></i>


</div>
<span class='text_page_counter'>(46)</span><div class='page_container' data-page=46>

Bảng 5 trình bày kết quả các các phương pháp theo tiếp cận thống kê: Phương pháp
Jaccard và phương pháp TF-IDF. Bảng 6 cho kết quả của các phương pháp theo tiếp cận
học sâu: các phương pháp Word2Vec, Doc2Vec, và học chuyển dựa trên Doc2Vec. Ta có


thể thấy rằng, các phương pháp theo hướng tiếp cận thống kê cho kết quả thấp hơn rất
nhiều so với các phương pháp theo hướng tiếp cận học sâu. Lý do chính là do trong tập
test của chúng tôi, các văn bản tượng tự với văn bản truy vấn chủ yếu tương tự về ngữ
nghĩa, khá ít trùng lặp về phần từ vựng nên các phương pháp thống kê khơng thực sự tốt.
Nhưng nó rất phù hợp với thực tế khi mà chúng ta mong muốn các kết quả trả về không
chỉ tương tự về mặt từ vựng mà còn tương tự về mặt ngữ nghĩa.


Phương pháp Jaccard TF-IDF


Độ chính xác 0.23 0.35


<i><b>Bảng 5: Kết quả các phương pháp theo tiếp cận thống kê.</b></i>


Phương pháp Word2Vec Doc2Vec Học Chuyển


Sum TF-IDF DBOW DM DBOW DM


Độ chính xác 0.525 0.558 0.685 0.676 <b>0.715 </b> 0.708


<b>Bảng 6: Kết quả các phương pháp theo tiếp cận học sâu.</b>


Ngồi ra, Bảng 6 cịn cho chúng ta thấy trong phương pháp sử dụng Word2Vec, việc
kết hợp vector các từ theo trọng số TF-IDF để tạo thành vector văn bản hiệu quả hơn so
với việc kết hợp các từ theo trọng số như nhau. Thêm vào đó, kết quả cho ta thấy rằng tiếp
cận biểu diễn văn bản theo phương pháp Doc2Vec hiệu quả hơn hẳn so với việc biểu diễn
dựa trên việc tổng hợp các từ trong văn bản. Cuối cùng, bảng 6 chỉ ra rằng phương pháp
học chuyển đã tận dụng được tri thức học từ các nguồn văn bản khác để cải tiến đáng kể
chất lượng phương pháp Doc2Vec so với việc chỉ dùng lượng nhỏ dữ liệu thuộc miền luật.
Trong đó, tiếp cận DBOW cho kết quả cao hơn 1 chút so với tiếp cận DM. phương pháp
DBOW kết hợp với học chuyển cho kết quả tốt nhất với độ hồi tưởng là 0.715, nghĩa là


trong 10 văn bản trả về, có khoảng 7 văn bản trùng với tập kết quả được thiết lập bởi các
chuyên gia. Kết quả này thêm 1 lần nữa chứng mình rằng kĩ thuật học chuyển rất tốt cho
bài toán với dữ liệu hạn chế. Cụ thể là trong bài toán đo độ tương tự giữa các văn bản luật
tiếng Việt của chúng tơi.


<b>Cải tiến nâng cao độ chính xác </b>


</div>
<span class='text_page_counter'>(47)</span><div class='page_container' data-page=47>

Một số mẫu sai cũng có độ tương đồng rất lớn với văn bản mẫu đưa vào. Nguyên
nhân là do khi xây dựng mẫu thử vẫn cịn sót 1 số văn bản có độ tương đồng với
văn bản mẫu đưa vào.


Một số văn bản có độ tương đồng rất lớn về tình huống pháp lý, về tập từ chung
nhưng chúng lại có một số tình tiết pháp lý có ý nghĩa rất lớn khác nhau ảnh hưởng
tới kết quả giải quyết dẫn đến kết quả trả ra có độ tương đồng cao nhưng sau khi
chuyên gia xem lại thì độ tương đồng lại thấp.


Để khắc phục những vấn đề trên chúng tôi cập nhật lại bộ mẫu thử sau khi chuyên gia
đánh giá lại. Ngoài ra, do văn bản luật chủ yếu là bản án vậy nên chúng tôi áp dụng từ
điển pháp lý cho bước tách từ bằng phương pháp thống kê, với phương pháp học chuyển
tơi huấn luyện mơ hình nhiều lần với từ điển pháp lý, bộ luật tố tụng hình sự, luật tố tụng
dân sự, luật hành chính,… Lý do chúng tôi làm như vậy bởi chúng tôi nhận thấy cấu tạo
của văn bản luật tiếng Việt có rất nhiều từ ngữ pháp lý, đặc biệt với bộ dữ liệu thu thập để
thực nghiệm, đa phần là bản án, đây là văn bản áp dụng pháp luật vậy nên nó bao gồm rất
<i>nhiều từ ngữ pháp lý căn cứ pháp luật. </i>


Sau khi cập nhật lại bộ mẫu và huấn luyện mơ hình với từ điển pháp lý, bộ luật tố tụng
hình sự, luật tố tụng dân sự, … Chúng tôi thực nghiệm lại với phương pháp học chuyển
và cho kết quả như sau:


<b>Phương pháp</b> <b>TL_DBOW</b> <b>TL_DM</b>



<b>Cải tiến </b> <b>Ban đầu </b> <b>Cải tiến </b> <b>Ban đầu </b>


<b>Độ chính xác</b> <b>0.765</b> 0.715 0.748 0.708


<b>Bảng 7: Kết quả của các phương pháp học chuyển cải tiến và chưa có cải tiến</b>


Bảng 7 cho chúng tôi kết quả so sánh giữa phương pháp học chuyển ban đầu và sau
khi cải tiến. Kết quả cho thấy việc cải tiến bằng từ điển pháp lý của chúng tơi đã cho thấy
những hiệu quả tích cực ban đầu trong việc đánh giá độ chính xác của phương pháp bằng
phương pháp tự động.


Dưới đây là ví dụ về 2 bản án có độ tương đồng cao
<i>Bản án 1</i>


</div>
<span class='text_page_counter'>(48)</span><div class='page_container' data-page=48>

<i>bước xuống xe cầm cây cơ bida đánh vào lưng, đầu anh Quang khoảng 05 đến 06 nhát, anh Quang </i>
<i><b>đứng dậy bỏ chạy được một đoạn thì vấp gã, lúc ngày Nghĩa đuổi kịp dùng mã tấu chém từ phải </b></i>
<i>sang trái trúng vào tay trái của anh Quang làm cánh tay gần đứt lìa. Sau đó cả nhóm bỏ đi, anh </i>
<i><b>Quang được người nhà đưa đi cấp cứu tại Bệnh viện 115 và phẩu thuật điều trị. </b></i>


<i><b>Sau khi gây án, các đối tượng bỏ trốn, đến ngày 16/10/2016 thì ra đầu thú tại Cơng an huyện </b></i>


<i>Bình Chánh. </i>


<i><b>Tại Bản kết luận giám định pháp y về thương tích số 160/2016/PY-TgT ngày 18/8/2016 của </b></i>
<i><b>Trung tâm pháp y tỉnh B kết luận thương tích của anh Nguyễn Văn Quang như sau: </b></i>


<i><b>- Vết thương đứt lìa bàn tay trái đã phâu thuật vi phẫu nối bàn tay-cẳng tay; hiện cổ tay có </b></i>


<i><b>sẹo vòng chu vi cổ tay đang còn chỉ khâu; </b></i>



<i>- Vết thương vùng đầu đã điều trị; hiện vùng đầu phải vết thương để sẹo mờ kích thước </i>
<i>(10x0,3)cm. </i>


<i><b>- Thương tích khơng nguy hiểm đến tính mạng của đương sự. Tỷ lệ tổn thương cơ thể do </b></i>


<i><b>thương tích gây nên hiện là 28%. </b></i>


<i>Kết luận khác: Thương tích do vật tày tác động mạnh gây ra. Cục kim loại do cơ quan điều tra </i>
<i>cung cấp có thể gây ra thương tích này. </i>


<i><b>Tại bản Cáo trạng số 05/CTr-VKS ngày 07 tháng 12 năm 2016 của Viện kiểm sát nhân dân </b></i>
<i>huyện B, thành phố Hồ Chí </i>


<i><b>Minh đã truy tố bị cáo Trương Quang Nghĩa về tội “Cố ý gây thương tích” theo khoản 2 Điều </b></i>


<i><b>104 Bộ luật hình sự năm 1999 (đã sửa đổi, bổ sung năm 2009). Tại phiên tòa, đại diện Viện kiểm </b></i>


<i><b>sát giữ nguyên quan điểm truy tố bị cáo về tội danh như cáo trạng và đề nghị Hội đồng xét xử: Áp </b></i>
<i><b>dụng khoản 2 Điều 104; các điểm b,p khoản 1, khoản 2 Điều 46 Bộ luật hình sự năm 1999 (đã </b></i>


<i><b>sửa đổi, bổ sung năm 2009) đề nghị xử phạt bị cáo Trương Quang Nghĩa từ 02 năm 06 tháng đến </b></i>


<i>03 năm tù. </i>
<i>Bản án 2 </i>


<i>Khoảng 15 giờ 30 phút ngày 30/9/2019, Trong lúc nhậu tại quán bà T, giữa anh L và T </i>
<i>xảy ra mâu thuẫn vì T khơng uống tiếp và đòi đi về, anh L cho rằng T khinh mình nên khơng </i>
<i>uống và bảo T tiếp tục uống. Nhân lúc anh L đi vệ sinh, T bảo anh K chở T về nhà tại số 19 </i>
<i>đường V, khu phố D, thị trấn B, huyện P, tỉnh B. Trên đường về đi ngang qua quán nhậu </i>


<i>“Cô Trâm” (gần nhà T), T bảo anh K tấp xe vào quán rồi ngồi chơi với các anh Phan Văn </i>
<i>D, Võ Đình T (Đồng trú tại D, thị trấn B, huyện P, tỉnh B); tại đây, T không nhậu, anh K </i>
<i>uống 02-03 ly rượu rồi điều khiển xe của T về nhà trước. Trong lúc ngồi tại quán “Cơ </i>
<i>Trâm”, anh L và T có gọi nhiều cuộc điện thoại cho nhau, hai bên cãi vả, chửi nhau và anh </i>
<i><b>L có thách thức T sử dụng hung khí để đánh nhau tại tượng đài thị trấn B, huyện P, tỉnh </b></i>
<i>B. </i>


</div>
<span class='text_page_counter'>(49)</span><div class='page_container' data-page=49>

<i><b>T nhào đến vung ngang dao chém một nhát từ phải sang trái trúng vào tay trái của anh </b></i>
<i><b>L. Do bị thương tích nặng nên anh Lê Tấn L được chuyển đến Bệnh viện đa khoa tỉnh B </b></i>
<i><b>cấp cứu và phẩu thuật điều trị. </b></i>


<i><b>Sau khi gây án, các đối tượng bỏ trốn, đến ngày 16/10/2019 thì ra đầu thú tại Công an huyện </b></i>


<i>P. </i>


<i><b>Tại Bản kết luận giám định pháp y về thương tích số 227/2019/PY-TgT ngày 14/11/2019 của </b></i>
<i><b>Trung tâm pháp y tỉnh B kết luận thương tích của anh Lê Tấn L như sau: </b></i>


<i><b>- Vết thương đứt lìa bàn tay trái đã phẩu thuật vi phẫu nối bàn tay-cẳng tay; hiện cổ tay có </b></i>


<i><b>sẹo vịng chu vi cổ tay đang cịn chỉ khâu; các ngón tay hồng, ấm, mất vận động ngón II, hạn chế </b></i>


<i>vận động các ngón cịn lại. </i>


<i>- Vết thương vùng hơng phải với kích thước (12x0,3)cm (thể hiện tại biên bản ghi lời khai và </i>
<i>biên bản hỏi cung bị can) đã điều trị. </i>


<i><b>- Thương tích khơng nguy hiểm đến tính mạng của đương sự. Tỷ lệ tổn thương cơ thể do </b></i>


<i><b>thương tích gây nên hiện là 25%. </b></i>



<i><b>Tại bản cáo trạng số 129/CTr -VKS ngày 17 tháng 12 năm 2019 của Viện kiểm sát nhân dân </b></i>
<i><b>huyện Bình Chánh, Thành phố Hồ Chí Minh đã truy tố bị cáo Hồng Tơn về tội “Cố ý gây thương </b></i>


<i><b>tích” theo khoản 2 Điều 104 Bộ luật hình sự năm 1999 được sửa đổi, bổ sung năm 2009 và tội </b></i>
<i><b>“Cố ý làm hư hỏng tài sản” theo khoản 1 Điều 143 Bộ luật hình sự năm 1999 được sửa đổi, bổ </b></i>
<i><b>sung năm 2009. </b></i>


Chúng ta thấy rằng, hai văn bản trên được chia thành 2 đoạn chính với ý nghĩa khác
nhau: đoạn đầu là các mơ tả về q trình sự việc xảy ra, đoan sau thể hiện kết quả của sự
việc được mô tả ở đoạn đầu.


- Đoạn mô tả về quá trình sự việc xảy ra của 2 văn bản có độ tương đồng rất thấp bởi
chúng chủ yếu chứa các từ ngữ tên người hoặc tên địa danh, những từ ngữ này không ảnh
hưởng nhiều đến độ tương tự về ý nghĩa của văn bản nên sẽ được loại bỏ khi tiến hành xử
lý văn bản.


- Đoạn thứ 2 mô tả kết quả của đoạn đầu và chúng ta nhận thấy hai đoạn này của hai
văn bản có độ tương đồng rất cao mặc dù số từ chung của hai văn bản là không nhiều, hay
thứ tự xuất hiện của các từ cũng khác nhau. Chúng chỉ lặp lại ở những từ pháp lý hoặc
những từ, cụm từ tham chiếu đến điều luật cụ thể trong các luật và bộ luật.


Theo thực nghiệm, độ tương tự giữa hai văn bản này là Cosine Similarity (VB1,VB2)
= 0.71338799, kết quả này đã phản ánh được độ tương tự của hai văn bản. Những từ ngữ
chính ảnh hưởng đến kết quả của độ đo tương đồng của hai văn chúng tôi đã bôi đậm và
chủ yếu xuất hiện tại đoạn thứ hai.


<i><b>4.4.3. Đánh giá các phương pháp với truy vấn là 1 đoạn văn ngắn. </b></i>


</div>
<span class='text_page_counter'>(50)</span><div class='page_container' data-page=50>

thường là các truy vấn từ 2 câu trở lên (lớn hơn 30 từ), và những truy vấn chứa những từ


khóa quan trọng theo đặc trưng của các văn bản luật.


Phương pháp Thống kê Word2Vec Doc2Vec Học Chuyển


Jaccard TF-IDF Sum


TF-IDF


DBOW DM DBOW DM


Độ chính xác 0.153 0.244 0.435 0.423 0.504 0.493 <b>0.575 </b> 0.528


<b>Bảng 8: Kết quả các phương pháp theo tiếp cận thống kê và học sâu.</b>


Dựa vào các kết quả thực nghiệm và phân tích kết quả dựa trên các chuyên gia, chúng
tôi hi vọng sẽ đưa ra được 1 hướng dẫn gợi ý tìm kiếm cho người dùng, để chương trình
có thể trả về các kết quả đúng nhất.


Dưới đây chúng tơi sẽ lấy ví dụ về việc nếu truy vấn với những từ ngữ hợp lý thì kết
quả sẽ tốt hơn:


Mô tả 1: không chứa từ ngữ pháp lý mà mô tả bằng từ ngữ tự nhiên


<i>“Ngày 15/10/2019 Tôi điều khiển xe ô tô đâm vào ông A, làm ông A bị thương và chết </i>
<i>tại bệnh viện. Khi đó tơi có đưa ơng A vào bệnh viện và thanh tốn tiền viện phí. Cho tôi </i>
<i>hỏi tôi sẽ phải chịu trách nhiệm như thế nào trước pháp luật?” </i>


<b>Mô tả 2: Chứa từ ngữ pháp lý “gây tai nạn giao thông” </b>


<i><b> “Ngày 15/10/2019 Tôi điều khiển xe ô tô và gây tai nạn giao thông, làm ông A bị </b></i>


<i><b>thương và chết tại bệnh viện. Sau khi gây tai nạn tơi có đưa ơng A vào bệnh viện và thanh </b></i>
<i>tốn tiền viện phí. Cho tơi hỏi tơi sẽ phải chịu trách nhiệm như thế nào trước pháp luật?” </i>


<i><b>Mô tả 3: Chứa cụm từ ngữ pháp lý theo luật “gây tai nạn giao thông dẫn đến chết </b></i>
<i><b>người” </b></i>


<i><b>“Ngày 15/10/2019 Tôi điều khiển xe ô tô và gây tai nạn giao thông dẫn đến chết </b></i>
<i><b>người. Sau khi gây tai nạn tơi có đưa ơng A vào bệnh viện cấp cứu và thanh tốn tiền </b></i>
<i>viện phí. Cho tôi hỏi tôi sẽ phải chịu trách nhiệm như thế nào trước pháp luật?” </i>


Chúng ta thấy rằng, cả 3 mơ tả trên có cùng độ dài, cùng mơ tả về một tình huống gây
<i><b>tai nạn giao thơng. Tuy nhiên, mô tả 3 sử dụng từ ngữ pháp lý quan trọng là “gây tai nạn </b></i>
<i><b>giao thông dẫn đến chết người” thì kết quả trả ra là 6 văn bản đúng theo đánh giá của </b></i>
chuyên gia tốt hơn hẳn so với mô tả 2 và môt tả 1 lần lượt là 3 văn bản đúng và 1 văn bản
đúng.


</div>
<span class='text_page_counter'>(51)</span><div class='page_container' data-page=51>

<b>CHƯƠNG 5: KẾT LUẬN VÀ CƠNG VIỆC TRONG TƯƠNG LAI </b>
<b>5.1. Kết luận </b>


Tính toán độ tương tự của văn bản là một bài toán đang được sự quan tâm bởi nhiều
nhà nghiên cứu trong và ngoài nước trong thời gian qua. Bởi nguồn tài liệu trên Internet
là rất nhiều nhưng việc khai thác nó lại gặp rất nhiều khó khăn. Mục đích của đề tài là
nghiên cứu và thử nghiệm phương pháp tính độ tương tự của văn bản Luật tiếng Việt dựa
trên sự kết hợp của các yếu tố độ tương tự về ngữ nghĩa và độ tương tự thứ tự từ. Các kết
quả của luận văn thu được:


- Tìm hiểu về khái niệm độ tương tự, độ tương tự về mặt ngữ nghĩa.


- Nghiên cứu các phương pháp tính độ tương tự văn bản, vector hóa đặt trưng
văn bản.



- Xây dựng bộ corpus với văn bản luật tiếng Việt (Bản án).


- Thực nghiệm thành công các phương pháp đo độ tương tự của văn bản luật
tiếng Việt. Chỉ ra phương pháp phù hợp nhất với miền dữ liệu là văn bản
luật tiếng Việt.


Mặc dù về cơ bản Luận văn đã đạt được những yêu cầu và mục tiêu để ra nhưng do
thời gian và trình độ cịn hạn chế nên chắc chắn luận văn không thể tránh khỏi những thiếu
sot, rất mong nhận được ý kiến đóng góp của quý thầy cơ để luận văn được hồn thiện
hơn.


<b>5.2. </b> <b>Công việc trong tương lai </b>


Giai đoạn chuyển đổi các tập tin từ Word, PDF ban đầu sang dạng text và loại bỏ các
ký tự dư thưa chưa thực sự tốt dẫn đến ảnh hưởng đến kết quả của chương trình do đó cần
được cải thiện.


Sử dụng nhãn đã có của 25,000 văn bản này để nâng cao tốc độ xử lý của chương
trình.


Thực nghiệm cho kết quả khá tốt, tuy nhiên cần được hiệu chỉnh để nâng cao độ chính
xác cũng như tốc độ xử lý để có thể đưa vào ứng dụng thực tế.


</div>
<span class='text_page_counter'>(52)</span><div class='page_container' data-page=52>

<b>TÀI LIỆU THAM KHẢO </b>
<b>Tài liệu tiếng Việt </b>


<i>1. Đỗ Thị Thanh Nga, “Tính tốn độ tương tự ngữ nghĩa văn bản dựa vào độ tương </i>
<i>tự giữa từ với từ”, Đại học Công nghệĐại học Quốc gia Hà Nội, 2010. </i>



<i>2. Nguyễn Trung Kiên, “</i>Phân đoạn tiếng Việt sử dụng mơ hình CRFS”, Đại học
<i>Quốc giá Hà Nội, 2006. </i>


<i>3. Lê Quý Tài, “Nghiên cứu các phương pháp xử lý tiếng Việt, ứng dụng cho tóm tắt </i>
<i>văn bản”, Đại học Quốc gia Hà Nội, 2011. </i>


<i>4. Luật 17/2008/QH12 của Quốc hội. </i>


<i>5. “Nghiên cứu kỹ thuật đánh giá độ tương đồng văn bản ứng dụng trong so sánh </i>
<i>văn bản tiếng Việt” của Th.S Nguyễn Kim Anh, Đại học Hàng hải Việt Nam, </i>
2016.


<b>Tài liệu tiếng Anh </b>


<i>6. Taeho Jo “Neural Based Approach to Keyword Extraction from Documents” May </i>
<i>2003 </i>


<i>7. Lan H. Witten: “KEA Practical Automatic Keyphrase Extraction”. </i>


<i>8. Le, Q. and Mikolov, T., 2014, January. “Distributed representations of </i>


<i>sentences and documents. InInternational conference on machine learning(pp. </i>
<i>1188-1196).” </i>


<i>9. Dishashree. 2017. “Transfer learning and the art of using Pre-trained Models in </i>
<i>Deep Learning”. </i>


10. Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg Corrado, Jeffrey Dean (2013),
<i>“Distributed Representations of Words and Phrasesand their Compositionality”, </i>
arXiv:1310.4546v1.



11. Christopher D. Manning, Prabhakar Raghavan & Hinrich Schütze (2008)
"Introduction to Information Retrieval". Cambridge University Press.


12. Christopher D. Manning, Prabhakar Raghavan & Hinrich Schütze (2008)
"Introduction to Information Retrieval". Cambridge University Press.


13. Khan, Aurangzeb & Bahurdin, B & Khan, Khairullah. (2009). An Overview of
E-Documents Classification. Proceedings of International Conference on Machine
Learning and Computing (ICMLC 2009).


</div>
<span class='text_page_counter'>(53)</span><div class='page_container' data-page=53>

15. Tomas Mikolov and Kai Chen and Greg Corrado and Jeffrey Dean (2013).
"Efficient Estimation of Word Representations in Vector Space". arXiv:1301.3781
16. Fuzhen Zhuang and Zhiyuan Qi and Keyu Duan and Dongbo Xi and Yongchun Zhu
and Hengshu Zhu and Hui Xiong and Qing He (2020). "A Comprehensive Survey
on Transfer Learning". arXiv:1911.02685


17. George-Sebastian Pirtoaca and Traian Rebedea and Stefan Ruseti (2019).
"Improving Retrieval-Based Question Answering with Deep Inference Models".
arXiv:1812.02971


18. Gidi Shperber (Jul 26, 2017) “A gentle introduction to Doc2Vec”

19. J. Ramos et al., “Using TF-IDF to determine word relevance in document queries,”


</div>

<!--links-->

×