Tải bản đầy đủ (.pdf) (79 trang)

Phương pháp mô phỏng monte carlo và ứng dụng vào toán tài chính

Bạn đang xem bản rút gọn của tài liệu. Xem và tải ngay bản đầy đủ của tài liệu tại đây (869.02 KB, 79 trang )

ĐẠI HỌC QUỐC GIA HÀ NỘI
TRƯỜNG ĐẠI HỌC KHOA HỌC TỰ NHIÊN
Hoàng Thị Hồng Minh
PHƯƠNG PHÁP MÔ PHỎNG
MONTE CARLO VÀ ỨNG DỤNG
VÀO TOÁN TÀI CHÍNH
LUẬN VĂN THẠC SỸ KHOA HỌC
Chuyên ngành: Lý thuyết xác suất và thống kê toán học
Mã số: 60 46 15
NGƯỜI HƯỚNG DẪN KHOA HỌC:
TS. NGUYỄN THỊNH
Hà Nội - 2012
Mục lục
Lời nói đầu 1
Lời cảm ơn 2
1 Cơ sở lý thuyết 4
1.1 Phương pháp mô phỏng Monte Carlo . . . . . . . . . . . . . . . . . . . . . 4
1.1.1 Luật mạnh số lớn . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.2 Phương pháp mô phỏng Monte Carlo "thô" . . . . . . . . . . . . . 5
1.1.3 Một vài ứng dụng của phương pháp mô phỏng Monte Carlo . . . . 5
1.2 Các cách cải tiến phương pháp Monte Carlo . . . . . . . . . . . . . . . . . 8
1.2.1 Biến ngẫu nhiên xung khắc . . . . . . . . . . . . . . . . . . . . . . 9
1.2.2 Biến điều khiển . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.3 Mẫu phân tầng . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2.4 Giảm phương sai bằng cách lấy mẫu có điều kiện . . . . . . . . . . 14
1.2.5 Mẫu chính . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3 Các quá trình ngẫu nhiên với thời gian liên tục . . . . . . . . . . . . . . . . 23
1.3.1 Phương pháp mô phỏng Monte Carlo cho các quá trình ngẫu nhiên . 25
1.3.2 Chuyển động Brown và cầu Brown . . . . . . . . . . . . . . . . . 26
1.3.3 Công thức Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.3.4 Phương trình vi phân ngẫu nhiên . . . . . . . . . . . . . . . . . . . 34


1.4 Mô phỏng nghiệm của các phương trình vi phân ngẫu nhiên . . . . . . . . . 38
1.4.1 Phương pháp số cho phương trình vi phân ngẫu nhiên . . . . . . . . 39
1.4.2 Các sơ đồ số cho xấp xỉ Taylor mạnh . . . . . . . . . . . . . . . . . 41
2 Ứng dụng của phương pháp Monte Carlo vào các mô hình tài chính 44
2.1 Một số mô hình tài chính.
Mô hình Black - Scholes . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.1.1 Một khung giá cổ phiếu kiểu mô hình Black - Scholes . . . . . . . 46
2.1.2 Xác định các tham số µ và σ của chuyển động Brown hình học S(t) 49
i
MỤC LỤC
2.2 Định nghĩa quyền chọn bằng lý thuyết . . . . . . . . . . . . . . . . . . . . 52
2.2.1 Kiến thức cơ bản về quyền chọn . . . . . . . . . . . . . . . . . . . 52
2.2.2 Giới thiệu sơ lược về định giá quyền chọn . . . . . . . . . . . . . . 53
2.3 Định giá quyền chọn và phương pháp Monte - Carlo trong việc xây dựng mô
hình Black - Scholes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2.4 Những hạn chế của mô hình Black - Scholes . . . . . . . . . . . . . . . . . 62
Kết luận 64
Phụ lục 65
Tài liệu tham khảo 76
ii
Lời nói đầu
Ngày nay, mô phỏng số chiếm một vị trí quan trọng trong nghiên cứu khoa học, bao gồm
cả mặt lý thuyết và thực nghiệm. Với sự phát triển nhanh và ngày càng phức tạp của các
ngành khoa học nói chung và toán tài chính nói riêng, các phương pháp lý thuyết gặp nhiều
khó khăn, bởi lẽ ở đó thường sử dụng tới các phép tính gần đúng. Mô phỏng số có thể kiểm
chứng những phép tính gần đúng từ lý thuyết, từ đó góp phần hạn chế sai số. Các kết quả
định lượng để mô phỏng số còn được sử dụng để so sánh với các kết quả nghiên cứu thực
nghiệm. Ngoài ra, mô phỏng còn được xem như là bước "số hóa thực nghiệm", nó được tiến
hành trước bước thực nghiệm để thu được kết quả tốt hơn, tiết kiệm được chi phí cho các lần
thực nghiệm. Một trong những phương pháp mô phỏng phổ biến được ứng dụng trong toán

tài chính là phương pháp Monte Carlo với sự giúp đỡ của máy tính.
Tên gọi "phương pháp Monte Carlo" xuất hiện trong từ điển toán học vào những năm
1949-1950, nhưng thật ra nó ra đời trong những năm 1943-1944 gần như cùng thời với máy
tính điện tử đầu tiên ở Mỹ, và được giới thiệu vào nước ta từ những năm 1963-1964, nhưng
thực sự được áp dụng phổ biến từ sau những năm 1975-1977.
Phương pháp Monte Carlo là phương pháp thường được dùng để mô phỏng các hiện tượng
xác suất, những hiện tượng không thay đổi đặc tính theo thời gian, nó cũng được sử dụng để
tính toán các biểu thức không theo xác suất bằng cách sử dụng phương pháp theo xác suất.
Phương pháp mô phỏng Monte Carlo được ứng dụng phổ biến trong các ngành công
nghiệp tài chính và bảo hiểm. Nó là công cụ cần thiết cho các kỹ sư và chuyên gia tính toán
tài chính khi phải tính toán các loại giá cả hay tính toán rủi ro phức tạp. Do đó, tác giả đã
chọn cách tiếp cận kết hợp trình bày lý thuyết phương pháp mô phỏng Monte Carlo, các cách
cải tiến và ứng dụng của nó trong việc mô phỏng nghiệm của các quá trình vi phân ngẫu
nhiên, cũng như các ứng dụng để định giá quyền chọn trong lĩnh vực toán tài chính.
Bố cục luận văn gồm 2 chương:
Chương 1: Cơ sở lý thuyết
Trong chương này, tác giả giới thiệu về phương pháp mô phỏng Monte Carlo, các định
lí cơ bản, và trình bày các phương pháp khác nhau để tăng tốc độ tính toán mà được gọi
1
MỤC LỤC
chung là phương pháp giảm phương sai. Tiếp theo, tác giả trình bày các kiến thức cơ bản
về quá trình ngẫu nhiên với thời gian liên tục và mô phỏng Monte Carlo cho chuyển động
Brown. Ngoài ra, tác giả còn mô phỏng nghiệm của các phương trình vi phân ngẫu nhiên
bằng phương pháp xấp xỉ Milstein và xấp xỉ Euler-Maruyama.
Chương 2: Ứng dụng của phương pháp Monte Carlo vào các mô hình toán tài chính
Trong chương này, tác giả chủ yếu đề cập đến mô hình Black Scholes, một khung giá
cổ phiếu kiểu mô hình Black - Scholes. Tác giả cũng trình bày cách xác định các hệ số thị
trường chứng khoán (µ: tỉ lệ trung bình của giá cổ phiếu luân chuyển; σ : độ biến động giá
của cổ phiếu).
Tác giả đã trình bày hai loại định giá quyền chọn, quyền chọn bán và quyền chọn mua,

bằng lý thuyết. Tác giả cũng đã thu thập một bộ dữ liệu thật về giá cổ phiếu và dùng nhiều
phương pháp khác nhau để tính toán sau đó so sánh các kết quả chạy máy này với các kết quả
do lý thuyết chứng minh được.
Do thời gian và kiến thức còn nhiều hạn chế nên luận văn không tránh khỏi những thiếu
sót. Tác giả rất mong nhận được sự góp ý từ quý thầy cô và bạn đọc.
Tác giả xin chân thành cảm ơn!
2
Lời cảm ơn
Bản luận văn này được hoàn thành dưới sự hướng dẫn nghiêm khắc và chỉ bảo tận tình
của TS. Nguyễn Thịnh. Thầy đã dành nhiều thời gian hướng dẫn cũng như giải đáp các thắc
mắc của tôi trong suốt quá trình làm luận văn. Tôi muốn bày tỏ lòng biết ơn sâu sắc đến
người thầy của mình.
Qua đây, tác giả xin gửi tới các thầy cô Khoa Toán-Cơ-Tin học, Trường Đại học Khoa
học Tự nhiên, Đại học Quốc gia Hà Nội, cũng như các thầy cô đã tham gia giảng dạy khóa
cao học 2010 - 2012, lời cảm ơn sâu sắc nhất đối với công lao dạy dỗ trong suốt quá trình
giáo dục đào tạo của Nhà trường.
Tác giả xin chân thành cảm ơn các thầy cô phản biện đã đọc và đóng góp nhiều ý kiến
quý báu cho bản luận văn của tác giả.
Cuối cùng, tác giả xin cảm ơn gia đình, bạn bè và tất cả mọi người đã quan tâm, tạo điều
kiện, động viên cổ vũ tác giả để tác giả có thể hoàn thành luận văn của mình.
Hà nội, tháng 12 năm 2012
Người làm luận văn
Hoàng Thị Hồng Minh
3
Chương 1
Cơ sở lý thuyết
1.1 Phương pháp mô phỏng Monte Carlo
Phương pháp mô phỏng Monte Carlo hay còn gọi là phương pháp thử thống kê được định
nghĩa như là phương pháp tính, bằng cách biểu diễn nghiệm các bài toán dưới dạng các tham
số của một đám đông lý thuyết và sử dụng dãy số ngẫu nhiên để xây dựng mẫu đám đông mà

từ đó ta thu được ước lượng thống kê của các tham số. Nói cách khác, phương pháp Monte
Carlo cung cấp những lời giải gần đúng cho các bài toán bằng cách thực hiện các thí nghiệm
lấy mẫu thống kê sử dụng số ngẫu nhiên.
Ý tưởng chính của phương pháp Monte Carlo là xấp xỉ một kỳ vọng E(X) bởi trung bình
cộng các kết quả của nhiều lần thí nghiệm độc lập, trong đó các biến ngẫu nhiên X có cùng
phân phối.
Cơ sở lý thuyết của phương pháp này là một trong những kết quả quan trọng của lý thuyết
xác suất, đó là Luật mạnh số lớn.
1.1.1 Luật mạnh số lớn
Định lí 1.1.1. Giả sử (X
n
)
n∈N
là một dãy các biến ngẫu nhiên giá trị thực, độc lập cùng
phân phối và được xác định trên một không gian xác suất (Ω,,P).
Đặt :
µ = E(X
1
)
Khi đó, với mọi ω ∈Ω:
1
n
n

i=1
X
i
(ω)
n→∞
−−−→ µ,P −h.c.c

(Xem chứng minh trong [9])
4
Chương 1. Cơ sở lý thuyết
1.1.2 Phương pháp mô phỏng Monte Carlo "thô"
Giả sử X là một biến ngẫu nhiên giá trị thực với E(X) < ∞.
Thuật toán 1.1.2. (Phương pháp Monte Carlo "thô")
Xấp xỉ E(X) bởi trung bình số học
1
n

n
i=1
X
i
(ω) , với mọi n ∈ N. Ở đây, X
i
(ω) là kết quả
của n phép thử độc lập, có cùng phân phối xác suất với X.
Định lí 1.1.3. (Ước lượng không chệch của phương pháp Monte Carlo)
Giả sử (X
n
)
n∈N
là một dãy các biến ngẫu nhiên giá trị thực, độc lập cùng phân phối với
X, được xác định trên một không gian xác suất (Ω,,P).
Khi đó ước lượng Monte Carlo:
X
n
:=
1

n
n

i=1
X
i
,n ∈ N
là một ước lượng không chệch với µ = E(X), hay một cách tương đương ta có:
E(X
n
) = µ
(Xem chứng minh trong [13])
Định lí 1.1.4. (Định lí giới hạn trung tâm)
Giả sử (X
n
)
n∈N
là một dãy các biến ngẫu nhiên giá trị thực, độc lập cùng phân phối với
X, được xác định trên một không gian xác suất (Ω,,P).
Giả sử rằng các biến ngẫu nhiên có phương sai hữu hạn σ
2
= Var(X).
Khi đó:

n
i=1
X
i
−n.µ


n.σ
D
−→ N (0;1); khi n → ∞
(Xem chứng minh trong [5])
1.1.3 Một vài ứng dụng của phương pháp mô phỏng Monte Carlo
Ví dụ 1. Một thí nghiệm để tính giá trị xấp xỉ của π là giao của một phần của đường
tròn đơn vị (C ) có tâm là gốc tọa độ với hình vuông đơn vị dương [0,1]
2
.
Thí nghiệm được thực hiện bằng cách lấy ngẫu nhiên các điểm P
1
,P
2
, ,P
n
của hình
vuông đơn vị và giả sử rằng:
X
i
= 1
P
i
∈C
5
Chương 1. Cơ sở lý thuyết
Khi đó : P
i
∈ int(C ) hoặc P
i
∈ bound(C )

Do đó, ta ngầm giả sử rằng điểm được chọn có phân bố đều trên [0,1]
2
. Khi đó ta có:
P(P
i
∈ C ) =
π
4
Suy ra , xác suất của C bằng diện tích của phần giao đó.
Do hàm chỉ tiêu 1
P
i
thỏa mãn :
E(1
P
i
) = P(P
i
∈ C ) =
π
4
Vì vậy chúng ta có thể ước lượng π bằng cách tính trung bình cộng của các P
i
tương ứng để
thu được ước lượng Monte Carlo:
ˆ
π(ω) =
4
n
.

n

i=1
1
P
i
∈C (ω)
Tốc độ hội tụ của phương pháp được minh họa bởi bảng kết quả sau:
n 100 10.000 100.000
ˆ
π 2.84 3.1268 3.14144
Bảng 1.1 (Ước lượng Monte Carlo "thô" của π)
Nhận xét rằng, tốc độ hội tụ của phương pháp Monte Carlo khá chậm, tuy nhiên cần phải
chú ý rằng sai số tương đối của ước lượng này dưới 0.5 %. So sánh với điều này ta thấy, ước
lượng với n = 100.000 cho ta kết quả tương đối chính xác.
Độ tin cậy [
ˆ
π
low
,
ˆ
π
up
] của ước lượng Monte Carlo được tính :
n 100 10.000 100.000
ˆ
π
low
2.477 3.0938 3.13105
ˆ

π
up
3.203 3.1598 3.15183
Bảng 1.2 (Ước lượng Monte Carlo cho khoảng tin cậy 95% của π)
Ví dụ 2. (Ước lượng xác suất của một biến cố)
Ước lượng xác suất của một biến cố là một trong những ứng dụng quan trọng của
phương pháp Monte Carlo.
Giả sử A là một biến cố nào đó. Ước lượng P(A)?
Xét :
1
A
(ω) =





1 nếu ω ∈ A
0 nếu ω /∈ A
6
Chương 1. Cơ sở lý thuyết
Suy ra E(1
A
) = P(A) và khi đó ước lượng Monte Carlo cho P(A) là tần suất tương đối của
số lần xuất hiện của A trong n lần thí nghiệm độc lập. Một cách hình thức, giả sử A
i
là số
lần xuất hiện A trong thí nghiệm thứ i, khi đó ta định nghĩa ước lượng Monte Carlo cho P(A)
như sau:
r

f
n
(A) =
1
n
.
n

i=1
1
A
i
Khi đó ta cũng có:
Var(1
A
) = P(A).(1 −P(A)),
ˆ
σ
n
= r
f
n
(A).(1 −r
f
n
(A))
và khoảng tin cậy xấp xỉ 95% cho P(A) là:
[r
f
n

(A) −
1.96

n
.
ˆ
σ
n
,r
f
n
(A) +
1.96

n
.
ˆ
σ
n
]
Ví dụ 3. (Tích phân Monte Carlo)
Một ứng dụng rất đơn giản nhưng hiệu quả của Monte Carlo là tính gần đúng các giá
trị của các tích phân tất định có dạng:

[0,1]
d
g(x)dx
(g(x) là hàm bị chặn, nhận giá trị thực.)
Hàm mật độ f (x) của phân bố đều d chiều trên [0,1]
d

:
f (x) = 1
[0,1]
d
(x); x ∈ R
d
Khi đó, với X ∼U ([0,1]
d
):
I =

[0,1]
d
g(x)dx =

f (x)g(x ) dx = E(g(X))
Giả sử X
1
, ,X
n
là các biến ngẫu nhiên độc lập, có phân bố đều trên [0,1]
d
, khi đó, ước
lượng Monte Carlo là:
ˆ
I
n
(ω) =
1
n

.
n

i=1
g(X
i
(ω))
Cụ thể, ta áp dụng mô phỏng Monte Carlo để tính tích phân I =
1

0
cos(x
2
).sin(x
4
)dx.
Tích phân này không tính được theo một công thức thông thường.
Trước hết, ta có nhận xét:
• Với một biến ngẫu nhiên X, với một hàm mật độ f (x) và ϕ là một hàm Borel thì biến
ngẫu nhiên Y = ϕ(X) có kỳ vọng là:
E(Y ) =


−∞
f (x).ϕ(x) dx.
7
Chương 1. Cơ sở lý thuyết
• Mặt khác, với một biến ngẫu nhiên V phân phối đều trên [0,1], ta biết rằng hàm mật độ
của nó là:
f

V
(x) =





1 nếu x ∈ [0, 1]
0 nếu x /∈[0,1]
• Do đó, đối với một tích phân
1

0
ϕ(x)dx ta có thể viết nó dưới dạng:
1

0
1.ϕ(x)dx =


−∞
f
V
(x).ϕ(x)dx = E[ϕ(V)]
Vì vậy, bài toán tính tích phân trên trở thành bài toán tính kỳ vọng E[ϕ(V )], trong đó V là
biến ngẫu nhiên phân phối đều trên[0,1] mà ta luôn có thể mô phỏng trên máy tính.
Đối với tích phân I =
1

0

cos(x
2
).sin(x
4
)dx = E[cos(V
2
).sin(V
4
)], ta có thuật toán để tính I
như sau:
(1). Chọn một số nguyên dương n khá lớn;
(2). Mô phỏng V,U ∼U[0,1];V,U độc lập;
(3). Đặt T
i
= cos(V
2
i
).sin(U
4
i
), với i = 1,2,3, ,n;
(4). Ước lượng I bởi
ˆ
θ
n
=
1
n
.


n
k=1
T
k
;
(5). I 
ˆ
θ
n
.
Dùng hàm ’quald’ với các hệ số mặc định của hàm ta được kết quả xấp xỉ sau:0.139567
Sau đây là một số ước lượng của tích phân I ứng với các giá trị lớn n :
n I 
ˆ
θ
n
ˆ
θ
n


n

n
ˆ
θ
n


n


n
10
3
0.145294 0.130071 0.160518
10
4
0.138850 0.134105 0.143595
10
5
0.139484 0.137974 0.140993
1.2 Các cách cải tiến phương pháp Monte Carlo
Nhược điểm chính của phương pháp mô phỏng Monte Carlo là tốc độ hội tụ của nó.
Trong xác suất, điều này chỉ được khắc phục khi độ lệch chuẩn giảm thì số lần mô phỏng sẽ
giảm. Do đó, nếu có thể thay đổi tốc độ hội tụ của phương sai thì có thể tăng tốc độ tính toán
điện tử, theo nghĩa rằng đạt được độ chính xác, đòi hỏi số ít lần chạy mô phỏng. Mọi sự cải
tiến của phương pháp Monte Carlo "thô" được gọi là phương pháp giảm phương sai . Trong
mục này tôi xin giới thiệu một số phương pháp giảm phương sai phổ biến.
8
Chương 1. Cơ sở lý thuyết
1.2.1 Biến ngẫu nhiên xung khắc
Phương pháp sử dụng các biến ngẫu nhiên xung khắc là phương pháp giảm phương sai
dễ dàng nhất. Nguyên lý cơ bản là giảm phương sai bằng cách lấy đối xứng. Giả sử chúng
ta muốn tính E( f (X)) với X là một biến ngẫu nhiên có phân bố đều trên [0, 1]. Khi đó ước
lượng Monte Carlo "thô" sẽ là:
f (X ) =
1
n
.
n


i=1
f (X
i
)
với X
i
là các thành phần độc lập của X. Ta sử dụng các số 1 −X
1
, ,1 −X
n
và định nghĩa ước
lượng Monte Carlo xung khắc:
f
anti
(X) =
1
2
.(
1
n
n

i=1
f (X
i
) +
1
n
n


i=1
f (1 −X
i
)) (1.1)
Chú ý rằng khi cả X và 1 −X có cùng phân bố, thì cả hai tổng ở vế phải của đẳng thức
(1.1) đều là ước lượng không chệch của E( f (X)). Do đó ước lượng xung khắc cũng là không
chệch. Đặt σ
2
= Var( f (X)). Khi đó phương sai của ước lượng xung khắc được cho bởi:
Var(f
anti
(X)) =
σ
2
2n
+
1
2n
Cov( f (X), f (1 −X))
Mệnh đề 1.2.1. (Bất đẳng thức Chebyschev.)
Giả sử X là một biến ngẫu nhiên giá trị thực. Giả sử f ,g là các hàm không giảm với
Cov( f (X),g(X)) hữu hạn. Khi đó ta có:
E( f (X)g(X)) ≥ E( f (X))E(g(X))
Bằng việc chọn g(x) = −f (1 −x), ta có mệnh đề sau được suy ra trực tiếp từ mệnh đề
trên:
Mệnh đề 1.2.2. (Giảm phương sai trong trường hợp phân bố đều).
Giả sử f là hàm không giảm hoặc không tăng, giả sử X có phân bố đều trên [0,1] với
Cov( f (X), f (1 −X)) hữu hạn. Khi đó ta có:
Cov( f (X), f (1 −X)) ≤ 0

Mệnh đề 1.2.3. (Giảm phương sai trong trường hợp phân bố chuẩn)
Giả sử f là hàm không giảm hoặc không tăng, giả sử X có phân bố chuẩn N (µ,σ
2
) với
Cov( f (X), f (2µ −X)) hữu hạn. Khi đó ta có:
Cov( f (X), f (2µ −X)) ≤ 0
9
Chương 1. Cơ sở lý thuyết
1.2.2 Biến điều khiển
Nguyên lý của biến điều khiển dựa trên ý tưởng: nếu muốn tính E(X), thì phải cố gắng
tính toán càng nhiều để độ chính xác càng tốt. Chính xác hơn, nếu biết một biến ngẫu nhiên
Y gần tới X theo một nghĩa nào đó và có thể tính toán E(Y ) một cách chính xác, khi đó biến
ngẫu nhiên này có thể được chọn như là biến điều khiển, một cách tương đương ta có:
E(X) = E(X −Y ) + E(Y )
từ đó dẫn đến ước lượng biến điều khiển Monte Carlo sau:
X
Y
=
1
n
n

i=1
(X
i
−Y
i
) + E(Y )
với X
i

,Y
i
là các thành phần độc lập của X,Y . Từ biểu thức liên hệ:
Var(X
Y
) =
1
n
.Var(X −Y ) =
1
n
(Var(X) + Var(Y ) −2Cov(X,Y ))
ta thu được sự giảm phương sai của trong ước lượng biến kiểm soát Monte Carlo so với ước
lượng Monte Carlo "thô" như sau:
Do
Var(X) ≥Var(X −Y )
nên độ chênh lệch về phương sai của hai phương pháp ước lượng là:
2Cov(X,Y ) −Var(Y )
Những ứng dụng mở rộng của phương pháp biến điều khiển.
1. Tối ưu hóa biến điều khiển:
Nếu ta tìm thấy biến ngẫu nhiên Y thỏa mãn yêu cầu thì aY cũng được sử dụng như một
biến điều khiển với a > 0. Do tính chất tuyến tính của kỳ vọng, ước lượng biến điều khiển
mới cũng không chệch. Vì vậy việc sử dụng biến điểu khiển Y đạt được thông qua số nhân
a

nhỏ nhất:
g(a) = Var(X −aY) = Var(X) + a
2
.Var(Y)−2aCov(X,Y )
= σ

2
+ a
2

2
Y
−2a.σ
X,Y
(1.2)
Từ đó, ta có:
a

=
σ
X,Y
σ
2
Y
và:
2a

Cov(X,Y ) −(a

)
2
.Var(Y) =
σ
2
XY
σ

2
Y
10
Chương 1. Cơ sở lý thuyết
kết hợp với:
σ
XY
= ρ
X,Y

X

Y
Ta có sự giảm phương sai tối đa như sau:
2a

Cov(X,Y ) −(a

)
2
.Var(Y)
Var(X)
= ρ
2
X,Y
2. Điều khiển bội
Theo cách xây dựng ước lượng biến điều khiển, ta có thể lấy thêm một biến điều khiển
khác, gọi là Z, như sau:
X
Y,Z

= X
Y
=
1
n
n

i=1
Z
i
+ E(Z)
Đây là ước lượng không chệnh với µ = E(X). Hơn nữa, nó còn dẫn đến sự giảm phương sai
nếu:
Var(Z) < 2Cov(X
Y
,Z)
Trong trường hợp Z
i
và Y
i
không tương quan, thì ta có:
Var(Z) < 2Cov(X,Z)
Vậy một trong những ứng dụng của điều khiển bội là dùng trong trường hợp nhiều chiều:
X = f (Y
1
, ,Y
d
)
đó là phương pháp điều khiển biến trong trường hợp không có điều kiện.
3. Biến điều khiển và chuỗi xấp xỉ

Không dễ dàng để tìm được một biến điều khiển tốt. Giả sử có ước lượng :
µ = E( f (X))
và có khai triển xấp xỉ Taylor đến bậc k như sau:
f
k
(x) =
n

i=1
f
( j)
(x
0
)
j!
(x −x
0
)
j
Vấn đề đặt ra là, liệu có thể xác định được giá trị x
0
như trên để có thể giảm phương sai
một cách nhiều nhất khi sử dụng f
k
(X) như là hàm biến thiên đồng thời. Tất nhiên điều này
phụ thuộc nhiều vào việc tính toán tất cả các giá trị của X cho đến bậc k và đặc biệt là tính
tất cả các phương sai: Cov(X
j
, f (X)) .
11

Chương 1. Cơ sở lý thuyết
Ví dụ 4.
Xét một tích phân đơn giản
1

0
x
2
dx;.
Ta có thể thay thế biến điều khiển X của f (X) = X
2
bởi biến điều khiển:
f
1
(X) = f

(
1
2
)(X −
1
2
) + f (
1
2
) = X −
1
4
Vì vậy, ước lượng tuyến tính tốt nhất mà ta đạt được trong trường hợp này là xấp xỉ Taylor
cấp 1 tại giá trị x

0
=
1
2
.
(Xem hình 1.1)
Hình 1.1:
4. Biến điều khiển trung bình không điều kiện
Phương pháp sử dụng biến ngẫu nhiên điều khiển không điều kiện là xấp xỉ kỳ vọng của
các hàm nhiều chiều:
E(g(X)) = E(g(X
(1)
, ,X
(d)
))
với d đơn biến điều khiển.
Y
UM
j
(X) = g(µ
1
, ,µ
i−1
,X
(i)
, µ
i+1
, ,µ
d
), j = 1, ,d

với µ
j
= E(X
( j)
), được gọi là biến ngẫu nhiên điều khiển trung bình không điều kiện.
Ta có ước lượng của biến ngẫu nhiên điều khiển trung bình không điều kiện:
X
UMC
n
=
1
n
n

i=1

g(X
i
) −
d

j=1
Y
UM
j
(X)

+
d


j=1
E(Y
UM
j
(X))
12
Chương 1. Cơ sở lý thuyết
Ví dụ 5.
Ta xem xét một ví dụ đơn giản như sau:
Giả sử có biến ngẫu nhiên X = (X
(1)
,X
(2)
,X
(3)
) có phân bố chuẩn nhiều chiều
X ∼N










1
1
1






,





1 0.8 0.8
0.8 1 0.64
0.8 0.64 1










Ta muốn ước lượng:
E(g(X)) = E(X
(1)
.X
(2)
.X

(3)
)
Suy ra, biến điều khiển đơn giản là các thành phần X
(i)
. Khi đó ước lượng của biến ngẫu
nhiên trung bình không điều kiện được cho như sau:
X
UMC
n
=
1
n
n

i=1
(X
(1)
i
.X
(2)
i
.X
(3)
i
−X
(1)
i
−X
(2)
i

−X
(3)
i
) + 3
Chẳng hạn, với n = 10.000, một mô phỏng cho ta những kết quả cho trong bảng 1.3 dưới
đây.
Phương pháp Trung bình Cận dưới Cận trên
CMC 3.240 3.120 3.361
UMCV 3.201 3.096 3.306
Bảng 1.3 E(X
(1)
.X
(2)
.X
(3)
) ước lượng Monte Carlo "thô" (CMC) và phương pháp biến ngẫu
nhiên điều khiển trung bình không điều kiện (UMCV), n = 10.000
1.2.3 Mẫu phân tầng
Trong phương pháp phân tầng lấy mẫu, phương sai của biến ngẫu nhiên X được chia
thành d phần khác nhau được xác định bởi các giá trị y
1
, ,y
d
của một biến ngẫu nhiên thứ
hai là Y . Khi đó, nếu:
• phân bố xác suất của Y đã biết hoặc dễ dàng tính toán được, và
• X|Y có thể dễ dàng mô phỏng
thì:
µ = E(X) =
d


i=1
E(X|Y = y
i
).P(Y = y
i
)
Nếu tất cả các xác suất p
i
= P(Y = y
i
) đều đã biết thì ta chỉ cần mô phỏng d kỳ vọng khác
nhau với phương pháp Monte Carlo "thô" phù hợp. Để chứng minh rằng điều này dẫn đến sự
13
Chương 1. Cơ sở lý thuyết
giảm phương sai, với i = 1, ,d ta định nghĩa:
X
i,n
i
=
1
n
i
n
i

j=1
X
(i)
j

, µ
i
= E(X|Y = y
i
), σ
2
i
= Var(X|Y = y
i
)
Tất cả các biến ngẫu nhiên X
(i)
j
có cùng phân bố xác suất với X|Y = y
i
. Khi đó ta có ước
lượng Monte Carlo phân tầng của µ là:
X
strart,n
=
d

i=1
p
i
.X
i,n
i
với n = n
1

+ + n
d
.
Nhận xét thấy rằng ước lượng Monte Carlo phân tầng là ước lượng không chệch của µ. Thậm
chí, ta có thể thấy rằng ước lượng phân tầng có phương sai nhỏ hơn so với ước lượng Monte
Carlo "thô", thật vậy :(chú ý rằng các X
i,n
i
,i = 1, ,d độc lập (có điều kiện))
Var

X
strart,n

= Var

d

i=1
p
i
.X
i,n
i

=
d

i=1
p

2
i
.
σ
2
i
n
i
=
d

i=1
p
i
n
i
p
i
σ
2
i
Và từ:
E(Var(X|Y )) =
d

i=1
Var(X|Y = y
i
).P(Y = y
i

) =
d

i=1
p
i
σ
2
i
,
σ
2
= Var(X) = E(Var(X|Y )) + Var(E(X|Y )) ≥ E(Var(X|Y ))
Nếu E(X|Y ) khác hằng số h.c.c, ta có mệnh đề sau:
Mệnh đề 1.2.4. (Giảm phương sai với các trọng số được lựa chọn tốt)
(a) Với các kí hiệu n
1
, ,n
d
tồn tại ở trên thì phương sai của ước lượng Monte Carlo phân
tầng nhỏ hơn so với ước lượng Monte Carlo "thô" của µ.
(b) Giả sử rằng tất cả các giá trị của n
p
i
đều là số nguyên. Khi đó, với sự lựa chọn tỉ lệ
phân tầng n
i
= n
p
i

, phương sai của ước lượng Monte Carlo phân tầng nhỏ hơn thực sự so với
phương sai của ước lượng Monte Carlo "thô" nếu E(X|Y ) không là hằng số hầu chắc chắn.
(c) Việc giảm phương sai lớn nhất là khi chọn:
n

i
= n.
p
i
σ
i

d
j=1
p
j
σ
j
(không giảm tổng quát, ta giả sử rằng tất cả σ
j
là các số dương).
1.2.4 Giảm phương sai bằng cách lấy mẫu có điều kiện
Giả sử rằng:
• E(X|Y) có thể được tính toán một cách chính xác bằng công thức tích phân đã cho.
14
Chương 1. Cơ sở lý thuyết
• Phân bố của Y được ước lượng bằng phương pháp Monte Carlo (thô).
Bằng việc biến đổi:
µ = E(X) = E(E(X|Y )) (1.3)
ta có một ước lượng Monte Carlo của µ bằng cách lấy mẫu E(X|Y ). Ước lượng Monte Carlo

có điều kiện được tính như sau:
• Lấy mẫu Y n lần để được các giá trị Y
1
, ,Y
n
,
• Tính E(X|Y
i
)
• Đặt:
X
cond,n
=
1
n
n

i=1
E(X|Y
i
)
Nhận xét thấy rằng X
cond,n
là ước lượng không chệch. Ta có:
σ
2
= Var(X) = E(Var(X|Y )) + Var(E(X|Y )) ≥
≥ Var(E(X|Y )) =: σ
2
cond

Khi đó ta có mệnh đề sau:
Mệnh đề 1.2.5. Với các kết quả và kí hiệu trên, phương sai của ước lượng Monte Carlo có
điều kiện không vượt quá phương sai của ước lượng Monte Carlo thô. Nếu X |Y khác hằng
số hầu chắc chắn thì bằng việc sử dụng ước lượng Monte Carlo có điều kiện sẽ giảm được
phương sai (lượng phương sai giảm được là σ
2
−σ
2
cond
).
1.2.5 Mẫu chính
Mẫu chính được xây dựng dựa trên một sự biến đổi trực tiếp của hàm mật độ của X (hoặc
biến đổi hàm xác suất, trong trường hợp X là một biến ngẫu nhiên rời rạc). Ý tưởng chính của
phương pháp lấy mẫu chính là để tìm một phân phối cho các biến ngẫu nhiên cơ bản bằng
cách xác định một mẫu có xác suất cao với những giá trị rất quan trọng để tính toán kỳ vọng,
E(g(X)).
Để thấy sự thay đổi của phương pháp, ta quay lại xem xét tích phân Monte Carlo trong ví
dụ 3. Với f (x) là hàm mật độ của phân bố đều trên U[0, 1]
d
ta có:

[0,1]
d
g(x)dx =

g(x) f (x) dx = E(g(X))
từ đây ta có thể tính tích phân xác định thông qua sử dụng N biến ngẫu nhiên độc lập X
1
, ,X
N

có phân phối đều trên U[0,1]
d
để có ước lượng Monte Carlo thô:
I
N
(ω) =
1
N
N

i=1
g(X
i
(ω))
15
Chương 1. Cơ sở lý thuyết
Cụ thể ta xét trường hợp: d = 1,g(x) = x.(1 −x) là một hàm không âm, đối xứng trên
đoạn [0, 1], g(1) = g(0) = 0, max
[0,1]
g(x) = g(
1
2
) =
1
4
. Bây giờ thay vì dùng phân phối đều trên
đoạn [0,1], thì ta sử dụng phân phối tam giác cho biến ngẫu nhiên X, tức là nó có mật độ xác
suất :
˜
f (x) =














0, nếu x ≤ 0 hoặc x ≥1
4x, nếu 0 < x <
1
2
4 −4x, nếu
1
2
≤ x < 1
(1.4)
(Xem hình 1.2 và hình 1.3)
Hình 1.2:
Khi đó giá trị của tích phân sẽ không thay đổi nếu ta lấy mẫu theo hàm mật độ
˜
f , ta có:
1

0

x.(1 −x)dx =
1

0
x.(1 −x)
˜
f (x)
˜
f (x) dx
Điều này có nghĩa rằng khi chúng ta sử dụng phân phối mới, chúng ta có mẫu
X(1−X)

f (X)
để có
được ước lượng Monte Carlo mới:
I
imp
=
1
N
N

i=1
X
i
(1 −X
i
)
˜
f (X

i
)
Chú ý rằng, X
i
có phân phối theo mật độ
˜
f (.) .
Một so sánh đơn giản của việc sử dụng ước lượng Monte Carlo giữa xấp xỉ đều và xấp xỉ
tam giác với N = 1.000 cho thấy sự vượt trội của phương pháp mới. Kết quả thu được là:
16
Chương 1. Cơ sở lý thuyết
Hình 1.3:
Phương
pháp
Kết quả Khoảng tin cậy 95% Phương sai
CMC 0.163 [0.158, 0.167] Var(I
crude
) =
1
180N
IMC 0.168 [0.166, 0.170] Var(I
imp
) =
1
1152N
=
1
64.18N
(CMC: Phương pháp ước lượng Monte Carlo thô; IMC: Phương pháp ước lượng Monte Carlo
bằng lấy mẫu chính.); kết quả chính xác bằng

1
6
Nhận xét thấy rằng, việc sử dụng phương pháp lấy mẫu chính cho ta kết quả chính xác
hơn. Mặt khác, với phương pháp mới này, phương sai cũng nhỏ hơn so với phương pháp cũ
(Var(I
crude
) ≥ Var(I
imp
)). Như vậy, phương sai của ước lượng Monte Carlo bằng việc sử
dụng phương pháp lấy mẫu chính đã được giảm ít hơn 1/6 so với phương sai của ước lượng
Monte Carlo thô.
Bây giờ ta sẽ áp dụng phương pháp lấy mẫu chính để tính kỳ vọng trong trường hợp tổng
quát:
E(g(X)) =

g(x) f (x) dx
Trong đó, biến ngẫu nhiên X nhận giá trị trong R
d
có hàm mật độ là f (x), và giả sử rằng kỳ
vọng của hàm g : R
d
→ R tồn tại.
Mọi hàm mật độ
˜
f (x) trên R
d
thỏa mãn:
˜
f (x) > 0, (∀x : f (x) > 0) (1.5)
17

Chương 1. Cơ sở lý thuyết
và độ đo xác suất của nó là
˜
P . Ta có:
E(g(X)) =

g(x) f (x) dx =

g(x)
f (x)
˜
f (x)
˜
f (x) dx
=
˜
E

g(X)
f (X )
˜
f (X )

=
˜
E( ˜g(X))
(1.6)
Ở đây
˜
E(.) là kỳ vọng tương ứng với

˜
P.
Hàm có trọng số
f (X)
˜
f (X)
được gọi là hàm tỷ số hợp lý của sự thay đổi từ độ đo xác suất P sang
˜
P.
Ước lượng mẫu chính của µ = E(g(X)) được định nghĩa như sau:
I
imp,
˜
f ,N
(g(X)) =
1
N
N

i=1
˜g(X
i
) =
1
N
N

i=1
g(X
i

)
f (X
i
)
˜
f (X
i
)
Trong đó các X
i
là độc lập và có phân phối theo hàm mật độ
˜
f của mẫu chính.
Nhận xét rằng, ước lượng của mẫu chính là ước lượng không chệch và ước lượng vững.
Phương sai của nó được cho bởi:
σ
2
imp,
˜
f ,N
=
˜
Var(I
imp,
˜
f ,N
(g(X)))
=
1
N

˜
Var(˜g(X)) =
1
N

˜
E

˜g(X)
2

−µ
2

=
1
N



g(x)
2
f (x)
˜
f (x)
f (x) dx −µ
2


(1.7)

Khoảng tin cậy xấp xỉ 95% cho E(g(X)):

I
imp,
˜
f ,N
(g(X)) −1.96
˜
σ
imp,
˜
f ,N

N
, I
imp,
˜
f ,N
(g(X)) + 1.96
˜
σ
imp,
˜
f ,N

N

trong đó
˜
σ

imp,
˜
f ,N
là độ lệch tiêu chuẩn mẫu của ước lượng mẫu chính.
Nếu g(x) ≥ 0, ∀x ∈ R
d
, ta chọn:
˜
f (x) = c. f (x ).g(x ) =
f (x).g(x )

f (y).g(y) dy
thì
˜
f là hàm mật độ trên R
d
và ta có ˜g(X) =
1
c
, tức là:
˜
Var

I
imp,
˜
f ,N
(g(X))

= 0

Tuy nhiên nhược điểm của phương pháp là tìm hằng số c bằng phương pháp Monte Carlo, ở
đó: µ =
1
c
.
18
Chương 1. Cơ sở lý thuyết
Mệnh đề 1.2.6. (Giảm phương sai bằng phương pháp lấy mẫu chính)
Giả sử g(.) là một hàm không âm. Khi đó tồn tại hàm mật độ của mẫu chính
˜
f sao cho ta có:
˜
Var

I
imp,
˜
f ,N
(g(X))

<
˜
Var

I(g(X)
N
)

với I(g(X)
N

là ước lượng Monte Carlo của E(g(X)). Hơn nữa, mọi hàm
˜
f thỏa mãn tính chất
(1.5) ta có:
Var

I(g(X))
N


˜
Var

I
imp,
˜
f ,N
(g(X))

=
=
1
N



g(x)
2

1 −

f (x)
˜
f (x)

f (x) dx


Một số phương pháp phổ biến để có được hàm mật độ của mẫu chính
1. Dịch chuyển hàm mật độ và nguyên lý cực đại .
Ý tưởng của phương pháp này là thay thế f (x) bởi :
˜
f (x) = f (x −c)
với c là hằng số thỏa mãn:
˜g(x) =
f (x)
f (x −c)
g(x)
Khi đó thực hiện nguyên lý cực đại, tức là chọn c sao cho
˜
f (x) và g(x) f (x) đạt cực đại tại
cùng một giá trị x
max
. (Chú ý rằng x
max
không phải là duy nhất, nên không phải việc chọn
giá trị c lúc nào cũng rõ ràng). Trong trường hợp đặc biệt của một hàm mật độ chuẩn nhiều
chiều:
f (x) = φ
ν,


(x)
=
1
2
d/2
|det(

)|
.exp


1
2
(x −ν)


−1
(x −ν)

Nhận xét rằng f (x) đạt giá trị lớn nhất tại ν, do đó ta chọn:
c = ν

−ν
với:
ν

= arg max
x
{g(x) f (x)}
Ví dụ 6. (Tính toán chi phí cho các sự kiện tiêu cực có phân phối chuẩn)

Giả sử ta có X ∼ N(0,1) và chúng ta phải đối mặt với chi phí của g(X) nếu quan sát
các giá trị của X lớn hơn 10. Ví dụ, như là một vụ phá sản của Mỹ hay là một tai nạn nghiêm
trọng ở nhà máy điện hạt nhân.
Nếu bây giờ ta sử dụng ước lượng Monte Carlo thô, thì ngay cả đối với một số lượng N lớn,
cũng không quan sát một giá trị đơn lẻ X
i
> 10 , và do đó ước lượng chi phí trung bình
19
Chương 1. Cơ sở lý thuyết
E(g(X)) bằng 0.
Nếu lấy:
g(x) := C.x.1
[10,∞)
(x)
với C là hằng số rất lớn, khi đó ta có:
10 = argmax
x

C.x.1
[10,∞)
(x).
1


.exp


x
2
2


Do đó, ta lấy:
˜
f (x) = ϕ
0,1
(x −10) =
1


exp


(x −10)
2
2

khi đó có được ước lượng mẫu chính:
I
imp,
˜
f ,N
(g(X)) =
1
N
N

i=1
C.X
i
.1

X
i
≥10
exp(50 −10X
i
)
(xem hình 1.4) với X
i
∼ N (10,1) , các X
i
độc lập.
Với N = 10.000 và C = 10
9
, dẫn đến ước lượng: 7528.10
−14
với khoảng tin cậy xấp xỉ 95%
là:
[7029.10
−14
,8031.10
−14
]
So sánh với giá trị chính xác:
C.exp(−50).
1

2.π
= 7695.10
−14
2. Thay đổi dáng điệu của hàm mật độ bởi tỷ lệ

Ý tưởng là thay thế f (x) bởi
˜
f (x) =
1
c
f

x
c

với c > 0 ta có:
˜g(x) = c
f (x)
f

x
c

g(x)
(Nhận xét rằng, nếu chọn một giá trị lớn của c 1 thì phương sai của phân phối ứng với hàm
mật độ
˜
f bằng phương sai tương ứng với hàm mật độ f ban đầu nhân với c
2
).
Ví dụ 7. (Với các giả thiết như trong ví dụ 6)
Chọn tham số c sao cho xác suất có nghĩa trong khoảng [10,∞) khi mô phỏng các số
ngẫu nhiên theo hàm mật độ chuyển đổi
˜
f . Đối với biến ngẫu nhiên X

σ
có phân bố chuẩn
N (0,σ
2
), ta có:
P(X
σ
≥ σ ) = 1 −Φ(1) = 0.159
20
Chương 1. Cơ sở lý thuyết
ta có thể chọn σ = 10. Nghĩa là 1/6 các số ngẫu nhiên X
i
được tạo ra thuộc khoảng [10,∞)
và do đó có thể có được ước lượng mẫu chính khác 0.
(xem hình 1.5)
Tuy nhiên, bằng việc chọn σ = 10, ta tăng độ lệch chuẩn của phân bố mẫu lên gấp 10 lần.
Khi đó ta có được ước lượng 8259.10
−14
với khoảng tin cậy xấp xỉ 95% là [5956.10
−14
,1056.10
−13
].
Trong khi đó giá trị chính xác là 7659.10
−14
thuộc khoảng tin cậy trên, do đó ước lượng này
khá là không ổn định.
3. Lấy mẫu có điều kiện bị hạn chế bởi miền giá trị
Thay điều kiện (1.5) bởi điều kiện sau:
˜

f (x) > 0, ∀x thỏa mãn g(x) f (x) = 0 (1.8)
Khi đó xét trên một khoảng [a,b] (ở đây có thể a = −∞, b = +∞), ta có:
f
{X|X∈[a,b]}
(x) =
f (x)
P(X ∈[a,b])
Nếu ta chọn mật độ có điều kiện là mật độ của mẫu chính thì sẽ có một hàm tỷ số hợp lý:
f (x)
˜
f (x)
= P(X ∈ [a,b])
Điều này cũng giúp ta tính ước lượng của mẫu chính dễ dàng hơn, ta cũng có:
I
imp,
˜
f ,N
(g(X)) =
1
N
N

i=1
˜g(X
i
) =
1
N
P(X ∈[a,b])
N


i=1
g(X
i
)
trong đó X
i
là mẫu được lấy từ mật độ có điều kiện.
Nếu khoảng mà ta lấy điều kiện có một xác suất rất nhỏ thì việc tính toán xác suất này sẽ là
một vấn đề khó khăn. Để tránh điều này ta sử dụng phương pháp dịch chuyển có điều kiện:
đầu tiên, bằng sự dịch chuyển thích hợp ta biến đổi mật độ (hoặc một phần) vào miền xác
định (mà ta quan tâm); sau đó sử dụng mật độ đã được chuyển dịch thay cho mật độ ban đầu
với điều kiện trong miền xác định đó. Khi đó ta lại có một ước lượng của mẫu chính:
I
imp,
˜
f
cond
,N
(g(X)) =
1
N
˜
P(X ∈[a,b])
N

i=1
g(X
i
)

f (X
i
)
˜
f
cond
(X
i
)
với
˜
f
cond
(x) là mật độ thu được bằng cách dịch chuyển có điều kiện mật độ
˜
f (x).
21
Chương 1. Cơ sở lý thuyết
Ví dụ 8.
Với các giả thiết cho trong ví dụ 6, một điều kiện thuần để dẫn đến ước lượng của mẫu
chính:
I
imp,
˜
f ,N
(g(X)) =
1
N
P (X ∈[10,∞))
N


i=1
C.X
i
Tuy nhiên, xác suất xảy ra ước lượng là rất bé và rất khó để phân biệt với 0. Đối với các
phương pháp tiếp cận kết hợp, đầu tiên ta thực hiện một sự thay đổi theo nguyên tắc tối đa
dẫn đến một phân bố chuẩn N(10,1). Suy ra ước lượng của mẫu chính kết hợp:
I
imp,
˜
f
cond
,N
(g(X)) =
1
N
N

i=1
C.X
i
.1
X
i
≥10
.
1
2
exp(50 −10X
i

)
trong đó X
i
là mẫu được lấy từ phân bố có điều kiện.
Kết quả của việc thực hiện kết hợp các phương pháp là kết quả chính xác nhất được minh
họa trong bảng so sánh dưới đây, trong đó giá trị đúng là 7695.10
−14
:
Phương pháp Ước lượng Cận dưới Cận trên
Monte Carlo thô 0 0 0
Dịch chuyển trung bình 7528.10
−14
7029.10
−14
8030.10
−14
Định tỷ lệ 8259.10
−14
5956.10
−14
1056.10
−13
Kết hợp điều kiện 7621.10
−14
7380.10
−14
8611.10
−13
Bảng 1.4 (Các phương pháp mẫu chính khác nhau với khoảng tin cậy 95% )
Hình 1.4: Mật độ ban đầu f(x) và mật độ dịch chuyển mẫu chính

˜
f (x)
22

×