Tải bản đầy đủ (.pdf) (17 trang)

Machine learning formulae

Bạn đang xem bản rút gọn của tài liệu. Xem và tải ngay bản đầy đủ của tài liệu tại đây (20.32 MB, 17 trang )


 

 

 


 

 

 


 

 

 

 

 


 


 


 

 

 

 

 

 

 

 

 

 

 

 

 

 

 


 


 

 

 

 

 


 

 

 

 

 

 



 
NAÏVE

 BAYES
 

 
𝑃 𝑐 𝑎 . 𝑃(𝑎)
𝑃 𝑎𝑐 =

 
𝑃(𝑐)

 

 
BAYES
 OPTIMAL
 CLASSIFIER
 

 
arg max

𝑃 𝑥 𝑇 . 𝑃(𝑇|𝐷)
 


 

 

 

NAÏVE
 BAYES
 CLASSIFIER
 

 
arg max 𝑃 𝑆𝑝𝑜|𝑇𝑜𝑡 .

𝑃(𝑆𝑜𝑐|𝑆𝑝𝑜)
 


 

 

 
BAYES
 MAP
 (maximum
 a
 posteriori)
 

 
ℎ!"# = arg max 𝑃 𝑐|𝑎 . 𝑃(𝑎)
 

 


 

 
MAXIMUM
 LIKELIHOOD
 

 
ℎ!" = arg max 𝑃 𝑐|𝑎
 

 

 

 
TOTAL
 PROBABILITY
 

 

 
𝑇𝑜𝑡𝑎𝑙𝑃 𝐵 = 𝑃 𝐵|𝐴 . 𝑃(𝐴)
 

MIXTURE
 MODELS
 


 
𝑃 𝐵 = 𝑃 𝐵|𝐴 . 𝑃(𝐴)
 

 

 

 
MIXTURE
 OF
 GAUSSIANS
 
ANOMALY
 DETECTION
 

 
1
1 𝑥−𝑥 !
𝑃 𝑥𝑥 =
. 𝑒𝑥𝑝 −

 
2
𝜎
2𝜋𝜎 !

 


 
𝑁! 𝐶! + 𝑁! 𝐶!
𝑍!" =

 
𝑁! + 𝑁!

 

 
𝑃(𝑍!" ) → 0.50
 

 

 
EM
 ALGORITHM
 

 
𝑃 𝑥 . 𝑃 𝑥|𝑥
𝐸  𝑠𝑡𝑒𝑝  𝑃 𝑥|𝑥 =

 
𝑃 𝑥 .𝑃 𝑥

 

 

𝑃(𝑥|𝑥)
𝑀  𝑠𝑡𝑒𝑝  𝑃 𝑥′ =

 
𝑛

 

 
𝐸  𝑠𝑡𝑒𝑝  𝑃 𝑥|𝑥 = 𝐴𝑠𝑠𝑖𝑔𝑛  𝑣𝑎𝑙𝑢𝑒
 

 

 
𝑀  𝑠𝑡𝑒𝑝  𝑃 𝑥′ = 𝑃(𝐵 = 1|𝐴 = 1, 𝐶 = 0)
 

 



 


 
LAPLACE
 ESTIMATE
 (small
 samples)

 

 
𝐴 + 0.5
𝑃 𝐴 =

 
𝐴+𝐵+1

 

 
BAYESIAN
 NETWORKS
 

 
𝑡𝑢𝑝𝑙𝑒𝑠  ¬  𝑓𝑜𝑟  𝑦 = 0   ∧ 𝑦 = 1
 

 

 
LIMITES
 

 
𝑓 𝑥 + ℎ − 𝑓(𝑥)
lim


 
!→!


 
ℎ = Δ𝑥 = 𝑥′ − 𝑥
 

 

 

 
DERIVADAS
 

 
𝜕 !
𝑥 = 𝑛. 𝑥 !!!
 
𝜕𝑥

 
𝜕 ! 𝜕𝑦 ! 𝜕𝑦
𝑦 =
.
 
𝜕𝑥
𝜕𝑦 𝜕𝑥


 
PRODUCT
 RULE
 

 

𝑑
𝑓 𝑥 . 𝑔 𝑥 = 𝑓′ 𝑥 𝑔 𝑥 + 𝑓 𝑥 . 𝑔′(𝑥)
 
𝑑𝑥

 

 


 

𝑑 𝑓(𝑥) 𝑓′ 𝑥 𝑔 𝑥 + 𝑓 𝑥 . 𝑔′(𝑥)
=

 
𝑑𝑥 𝑔(𝑥)
𝑔(𝑥)!

 
𝑑
𝑑
2𝑓 𝑥 = 2 𝑓 𝑥

 
𝑑𝑥
𝑑𝑥

 

 
𝑑
𝑑
𝑑
𝑓 𝑥 +𝑔 𝑥 =
𝑓 𝑥 +
𝑔 𝑥
 
𝑑𝑥
𝑑𝑥
𝑑𝑥

 

 
𝑑
𝑑
𝑑
𝑓 𝑥 + 2𝑔 𝑥 =
𝑓 𝑥 + 2 𝑔 𝑥
 
𝑑𝑥
𝑑𝑥
𝑑𝑥


 

 
CHAIN
 RULE
 

 
𝑑
𝑔 𝑓 𝑥 = 𝑔! 𝑓(𝑥) . 𝑓′(𝑥)
 
𝑑𝑥

 
solve
 f(x)
 apply
 in
 g’(x)
 

 

 

 
VARIANCE
 


 
(𝑥 − 𝑥)!
𝑉𝑎𝑟 =

 
𝑛−1

 

 

 
STANDARD
 DEVIATION
 

 
𝑉𝑎𝑟𝑖𝑎𝑛𝑐𝑒
 

 

 


𝑅! =

COVARIANCE
 


 

 
𝑥 − 𝑥 . (𝑦 − 𝑦)
𝐶𝑜𝑣 =

 
𝑛−1

 

 

 
CONFIDENCE
 INTERVAL
 

 
𝜎
𝑥 ± 1.96
 
𝑛

 

 

 
CHI

 SQUARED
 

 
(𝑦 − 𝑦)! 𝛿 !
𝐶ℎ𝑖 =
=

 
𝑦
𝑦

 

 

 

 
R
 SQUARED
 

 

 
𝑛 𝑥𝑦 − 𝑥. 𝑦

𝑥 ! − ( 𝑥)! . 𝑛 𝑦 ! − ( 𝑦)!


 

 

 
LOSS
 

 
𝐿𝑜𝑠𝑠 = 𝐵𝑖𝑎𝑠 ! + 𝑉𝑎𝑟𝑖𝑎𝑛𝑐𝑒 ! + 𝑁𝑜𝑖𝑠𝑒
 

 

 
𝑛


 

SUM
 OF
 SQUARED
 ERRORS
 

 
(𝑦 − 𝑦)!
𝐸𝑤 =


 
2

 

 
COST
 FUNCTION
 

 
(𝑦 − 𝑦)!
𝐽 𝜃! ≔ 𝜃! − 𝜂.

 
2

 

 

 

 
NUMBER
 OF
 EXAMPLES
 

 

1
log(𝑁! ) + log  (𝛿 )
𝑚≥

 
𝜖

 
𝑦
𝑤ℎ𝑒𝑟𝑒  𝜖 =   ∧  𝛿 = 𝑦 − 𝑦
 
𝑦

 

 

 

 
MARKOV
 CHAINS
 

 
𝑃!!! 𝑋 = 𝑥 =

𝑃! . 𝑋 = 𝑥 . 𝑇(𝑥 → 𝑥)
 
!



 

 

 

 

 

 


K
 NEAREST
 NEIGHBOR
 

 
𝑓(𝑥)
𝑓 𝑥 ←

 
𝑘

 

 

𝐷𝐸 𝑥! , 𝑥! =


 

 

 

𝑥! − 𝑥!

!

LINEAR
 REGRESSION
 

 

 
!
𝑥! 𝑥! 𝑦 − 𝑥! 𝑥! 𝑥! 𝑦
𝑚! =

 
𝑥!! 𝑥!! − ( 𝑥! 𝑥! )!

 

 

𝑏 = 𝑦 − 𝑚! 𝑥! − 𝑚! 𝑥!
 

 

 

+ (𝑦!" − 𝑦!" )!
 


 

 
WEIGHTED
 NEAREST
 NEIGHBOR
 

 

 
𝑓(𝑥)
𝑓 𝑥 =
.
𝐷(𝑥! 𝑥! )!
 
𝐷(𝑥! 𝑥! )!

 


 

 
PRINCIPAL
 COMPONENTS
 ANALYSIS
 

 
𝑥′ = 𝑥 − 𝑥
 

 
𝐸𝑖𝑔𝑒𝑛𝑣𝑎𝑙𝑢𝑒 = 𝐴 − 𝜆𝐼
 

 
𝐸𝑖𝑔𝑒𝑛𝑣𝑒𝑐𝑡𝑜𝑟 = 𝐸𝑛𝑔𝑒𝑛𝑣𝑎𝑙𝑢𝑒. [𝐴]
 
𝑓 𝑥 = 𝐸𝑖𝑔𝑒𝑛𝑣𝑒𝑐𝑡𝑜𝑟 ! . [𝑥!! . . . 𝑥!" ]
 

 

 

 

 


 

 

 

!

𝑓 𝑥 =

𝑚! 𝑥! + 𝑏
 
!!!


 


 


 
LOGISTIC
 REGRESSION
 

 

 

𝑃
𝑂𝑑𝑑𝑠  𝑅𝑎𝑡𝑖𝑜 = 𝑙𝑜𝑔
= 𝑚𝑥 + 𝑏
 
1−𝑃

 

 
𝑃
= 𝑒 !"!!  
1−𝑃

 

 

 
𝑦. log  (𝑦) + 1 − 𝑦 . log  (1 − 𝑦)
𝐽 𝜃 =−

 
𝑛

 
1
𝑤ℎ𝑒𝑟𝑒  𝑦 =

 
1 + 𝑒 !"!!


 
𝑓𝑜𝑟  𝑦 = 0     ∧  𝑦 = 1
 

 
−2𝐿𝐿 → 0
 



 

 
𝑥  ! ~  𝑥!   ≠ 𝑥! ′  ~  𝑥! ′
 

 

 
𝑝
𝑚𝑥 + 𝑏 =

 
1−𝑝

 

 
𝑚𝑥 + 𝑏

𝑃 𝑎𝑐 =

 
𝑚𝑥 + 𝑏 + 1

 

 
1
𝐿𝑜𝑔𝑖𝑡 =

 
100. log  (𝑃(𝑎|𝑐))

 

 
DECISION
 TREES
 

 
!

𝐸𝑛𝑡𝑟𝑜𝑝𝑦 =

−𝑃. log  (𝑃)
 
!!!



 

 
𝐼𝑛𝑓𝑜𝐺𝑎𝑖𝑛 = 𝑃! . −𝑃!! . log 𝑃!! − 𝑃!(!!!) −. log  (𝑃!(!!!) )
 

 

 

 
RULE
 INDUCTION
 

 
𝐺𝑎𝑖𝑛 = 𝑃. [ −𝑃!!! . log  (𝑃) − (−𝑃! . log  (𝑃))]
 

 

 

 
RULE
 VOTE
 

 

Weight=accuracy
 .
 coverage
 

ENTROPY
 

 

 
𝐻 𝐴 =−

𝑃 𝐴 . 𝑙𝑜𝑔𝑃(𝐴)
 


 

 
JOINT
 ENTROPY
 

 

 
𝐻 𝐴, 𝐵 = −

𝑃 𝐴, 𝐵 . 𝑙𝑜𝑔𝑃(𝐴, 𝐵)

 


 

 

 
CONDITIONAL
 ENTROPY
 

 

 
𝐻 𝐴|𝐵 = −

𝑃 𝐴, 𝐵 . 𝑙𝑜𝑔𝑃(𝐴|𝐵)
 


 

 

 
MUTUAL
 INFORMATION
 


 

 
𝐼 𝐴, 𝐵 = 𝐻 𝐴 − 𝐻(𝐴|𝐵)
 

 

 

 
EIGENVECTOR
 CENTRALITY
 =
 PAGE
 RANK
 

 
1−𝑑
𝑃𝑅(𝐵)
𝑃𝑅(𝑛)
𝑃𝑅 𝐴 =
−d
+

 
𝑛
𝑂𝑢𝑡(𝐵) 𝑂𝑢𝑡(𝑛)


 
where
 d=1
 few
 connections
 

 


RATING
 

 
𝑅 = 𝑅! + 𝛼

𝑤!" =

𝑤! . (𝑅!" − 𝑅! )
 


 

 
SIMILARITY
 

 
! 𝑅!" − 𝑅! . (𝑅!" − 𝑅! )

!

BATCH
 GRADIENT
 DESCENT
 

 

 
(𝑦 − 𝑦)! . 𝑥
𝐽 𝜃! ≔ 𝜃! ± 𝜂.

 
2𝑛

 

 
STOCHASTIC
 GRADIENT
 DESCENT
 

 

 
𝐽 𝜃! ≔ 𝜃! ± 𝜂. (𝑦 − 𝑦)! . 𝑥
 


 

 

 

 

 
NEURAL
 NETWORKS
 

 


 

𝑅!" − 𝑅! ! . (𝑅!" − 𝑅! )!


 

 

 

 

 

CONTENT-­‐BASED
 RECOMMENDATION
 

 

!

!"#$$ !

𝑅𝑎𝑡𝑖𝑛𝑔 =

𝑓 𝑥 = 𝑜 = 𝑤! +

𝑥! 𝑦!
 
!!! !!!


 


 

 

 
COLLABORATIVE
 FILTERING
 


 

 
𝑅!" = 𝑅! + 𝛼.
 
𝑅!" − 𝑅! .

!

𝑅!" − 𝑅! . (𝑅!" − 𝑅! )

!

𝑅!" − 𝑅! ! . (𝑅!" − 𝑅! )!

 

 

 

 

𝑤! 𝑥!
 
!!!


 


 
LOGIT
 

 
log 𝑜𝑑𝑑𝑠 = 𝑤𝑥 + 𝑏 = 𝑙𝑜𝑔

𝑝

 
1−𝑝


 

 

 
SOFTMAX
 NORMALIZATION
 


 

 

𝑒 !"!!
𝑆(𝑓 𝑥 ) =


 
𝑒 !"!!

 

 



 
CROSS
 ENTROPY
 

 
𝐻(𝑆 𝑓 𝑥 , 𝑓 𝑥


 

 

=−

!

𝑓 𝑥 . 𝑙𝑜𝑔𝑆(𝑓 𝑥 )
 



 

 
LOSS
 

 
𝐻(𝑆(𝑓 𝑥 , 𝑓(𝑥))
𝐿𝑜𝑠𝑠 =

 
𝑁

 

 

 

 
L2
 REGULARIZATION
 

 
𝜆. 𝑤 !
𝑤 ← 𝑤 − 𝜂. 𝛿. 𝑥 +

 

2

 

 

 
SIGMOID
 

 
1

 
1 + 𝑒 !(!"!!)

 
RADIAL
 BASIS
 FUNCTION
 

 

 
ℎ 𝑥 =𝑒

 

 


 


 
PERCEPTRON
 

 

!

(!!!)!
!!


 

𝑓 𝑥 = 𝑠𝑖𝑔𝑛

𝑤! 𝑥!"
 
!!!


 

 

PERCEPTRON

 TRAINING
 

 
𝑤! ← 𝑤! + ∆𝑤!
 

 
∆𝑤! = 𝜂. 𝑡 − 𝑜 . 𝑥
 

 

 
ERROR
 FOR
 A
 SIGMOID
 

 

 
𝜖=

𝑡 − 𝑜 . 𝑜. 1 − 𝑜 . 𝑥
 

 


 


 


 
AVOID
 OVERFIT
 NEURAL
 NETWORKS
 L2
 

 
(𝑡
− 𝑜)!
!"# !"#
𝑤=
+ F.
𝑤!"!
 
2

 

 
where
 F=penalty
 



 

 

 

 

 

 



 
BACKPROPAGATION
 

 

 
𝛿! = 𝑜! . 1 − 𝑜! . (𝑡 − 𝑜! )
 

 

 
𝛿! = 𝑜! . 1 − 𝑜! .


𝐽! =

 

!
!!!

𝑤!" 𝛿!
 


 

 
𝑤!" ← 𝑤!" + 𝜂!" . 𝛿! . 𝑥!"
 

 
𝑤! = 1 + (𝑡 − 𝑜! )
 

 

 
∆𝑤!" (𝑛) = 𝜂. 𝛿! . 𝑥!" + 𝑀. ∆𝑤!" (𝑛 − 1)
 

 
where

 M=momentum
 

 

 
NEURAL
 NETWORKS
 COST
 FUNCTION
 

 
!!
!
𝜆 !!!!! !!!
!!! 𝑡! . log 𝑜 + 1 − 𝑡 . log  (1 − 𝑜)
+
𝑁
2𝑁

 

 
MOMENTUM
 Υ
 

 


 
𝜃 = 𝜃 − (𝛾𝑣!!! + 𝜂. ∇𝐽 𝜃 )
 

 

 

 

 

!!!! !
!!! 𝜃!"


 


 
NESTEROV
 

 

 
𝜃 = 𝜃 − (𝛾𝑣!!! + 𝜂. ∇𝐽(𝜃 − 𝛾𝑣!!! ))
 

 


 
ADAGRAD
 

 

 
𝜂
𝜃=𝜃−
. ∇𝐽(𝜃)
 
𝑆𝑆𝐺!"#$ + 𝜖

 

 

 
ADADELTA
 

 
𝑅𝑀𝑆[∆𝜃]!!!
𝜃=𝜃−

 
𝑅𝑀𝑆∇𝐽(𝜃)

 


 
𝑅𝑀𝑆 Δ𝜃 = 𝐸 ∆𝜃 ! + 𝜖
 

 

 
RMSprop
 

 

 
𝜂
𝜃=𝜃−
. ∇𝐽(𝜃)
 
𝐸 𝑔! + 𝜖

 

 
ADAM
 

 
𝜂
𝜃=𝜃−
. 𝑚

 
𝑣+𝜖

 



 

𝛽! 𝑚!!! + 1 − 𝛽! . ∇𝐽(𝜃)
𝑚=

 
1 − 𝛽!

 

 
𝛽! 𝑣!!! + 1 − 𝛽! . ∇𝐽(𝜃)!
𝑣=

 
1 − 𝛽!

 

 

 
SUPPORT

 VECTOR
 MACHINES
 

 
𝑓 𝑥 = 𝑠𝑖𝑔𝑛 𝜆. 𝑦. 𝐾(𝑥! ∙ 𝑥! )
 

 
𝑥! − 𝑥!

𝐾 𝑥! ∙ 𝑥! = 𝑒𝑥𝑝 −

!

𝑥! ∙ 𝑥! =

𝐾 𝑥! ∙ 𝑥! = 𝑒𝑥𝑝 −

+ (𝑦! − 𝑦! )!

𝑠𝑒𝑛𝜃 =


 

+ (𝑦!" − 𝑦!" )!
𝑥!



 

 

𝑥! − 𝑥!

!

+ (𝑦! − 𝑦! )!

𝑤𝑖𝑑𝑡ℎ!!"#


 


 
𝜆 → arg 𝑚𝑖𝑛 ∇𝐿
 


 

 

 


 
𝜆 → ∇𝐿 = 0

 

 

 
𝑦 = 1   ∧ 𝑦 = −1
 

 

 
𝐷𝑜𝑡𝑃𝑟𝑜𝑑𝑢𝑐𝑡 = 𝑥! . 𝑐𝑜𝑠𝜃
 

 

 
!
𝑐𝑜𝑠 𝜃 + 𝑠𝑒𝑛! 𝜃 = 1
 

 

 
!

𝑥! − 𝑥! ! + (𝑦! − 𝑦! )!

 
𝑥! ! + 𝑦! !



 

 

 

 
SUPPORT
 VECTOR
 REGRESSION
 

 
𝑌 = 𝜆. 𝐾 𝑥! ∙ 𝑥! + 𝑏
 

 

𝑤𝑖𝑑𝑡ℎ!!"#

𝑥! − 𝑥!

(𝑥! ! + 𝑦! ! ). 1 −


 
RIDGE
 REGRESSION

 -­‐
 REGULARIZATION
 

 
𝑦 − 𝑦 ! 𝜆. 𝑚
𝑚≔𝑚−


 
𝑁
𝑁

 

 
𝜆
𝑦 = 𝜆. 𝑚𝑥 + 𝑏 −
 
𝑁

 

 
LASSO
 REGRESSION
 
 -­‐
 REGULARIZATION
 


 

 


(𝑦 − 𝑦)! 𝜆. 𝑏
𝑏≔
+
 
𝑁
𝑁

 
𝑚 → 0
 

 


 


 

𝜆
𝑦 = 𝑚𝑥 + 𝜆. 𝑏 +
 
𝑁


 

 
SKEWNESS
 

 
Skewness
 <
 1
 

 
KOLMOGOROV
 SMIRNOV
 

 
Normal
 sig
 >
 .005
 

 

 

 
NÃO

 PARAMÉTRICOS
 

 
T
 test
 =
 Normal
 Teste
 U
 Mann
 Whitney
 sig
 <
 .05
 

 
CRONBACH
 

 
>
 .60
 .70
 


 



 
MÉDIA
 ARITMÉTICA
 

 
𝑥

 
𝑁

 

 

 

MÉDIA
 GEOMÉTRICA
 

 

 
!
1,2,4 = 1.2.4
 

 


 

 
MEDIANA
 

 
𝑀𝑎𝑥 − 𝑀𝑖𝑛

 
2

 

 
TESTE
 t
 

 
𝑥! − 𝑥! (! ! )
=


! !


Diferenỗa
significante

 sig
 <
 .05
 

 
TESTE
 t
 2
 AMOSTRAS
 

 
Levene
 Variância
 

 

 

 
ANOVA
 +
 3
 

 
𝑉𝑎𝑟𝑖â𝑛𝑐𝑖𝑎  𝑒𝑛𝑡𝑟𝑒  𝑔𝑟𝑢𝑝𝑜𝑠
𝐹=


 
𝑉𝑎𝑟𝑖â𝑛𝑐𝑖𝑎  𝑑𝑒𝑛𝑡𝑟𝑜  𝑑𝑜  𝑔𝑟𝑢𝑝𝑜

 
Sig
 <
 .05
 

 

 
TOLERÂNCIA
 

 



 
Tolerância
 >
 .1
 

 
1
𝑇𝑜𝑙𝑒𝑟â𝑛𝑐𝑖𝑎 =


 
𝑉𝐼𝐹

 

 
VARIANCE
 INFLATION
 FACTOR
 

 
VIF
 <10
 

 

 

 
ENTER
 METHOD
 

 
+
 15
 cases
 /

 Variable
 

 

 

 
STEPWISE
 METHOD
 

 
+
 50
 cases
 /
 Variable
 

 

 
VARIABLE
 SELECTION
 

 
F
 Test

 =
 47
 sig
 <
 .05
 

 

 

 
MISSING
 DATA
 

 
Delete
 if
 >
 15%
 

 

 

 

 


ANÁLISE
 DISCRIMINANTE
 

 

 
Box
 M
 sig
 <
 .05
 rejeita
 H0
 

 

 
Wilk’s
 Lambda
 sig
 <
 .05
 

 

 

𝑥  ! ~  𝑥!   ≠ 𝑥! ′  ~  𝑥! ′
 
1
1 𝑥−𝑥
𝑃 𝑥𝑥 =
. 𝑒𝑥𝑝 −
2
𝜎
2𝜋𝜎 !

 

 
𝑁! 𝐶! + 𝑁! 𝐶!
𝑍!" =

 
𝑁! + 𝑁!

 

 

 
ERROR
 MARGIN
 

 
𝜎

1.96  

 
𝑁

 
ACCURACY
 

 
Confidence
 Interval
 ~
 P
 value
 

 

 

 
HYPOTHESES
 TESTING
 

 
P
 value
 <

 .05
 

 

 

 

!


 


TRANSFORMATION
 OK
 

 
𝑥
< 4
 
𝜎

 

 
MULTICOLLINEARITY
 


 
Correlation
 >
 .90
 

 
VIF
 <10
 

 
Tolerance
 >
 .1
 

 

 
SUM
 OF
 SQUARES
 (explain)
 

 
𝑆𝑆!"#!"$$%&'   . (𝑁 − 𝑐𝑜𝑒𝑓)
𝐹!"#$% =


 
𝑐𝑜𝑒𝑓 − 1  . 𝑆𝑆!"#$%&'(#

 

 

 

 

 

 
STANDARD
 ERROR
 ESTIMATE
 (SEE)
 

 

 
𝑆𝐸𝐸 =

𝑆𝑢𝑚𝑆𝑞𝑢𝑎𝑟𝑒𝑑𝐸𝑟𝑟𝑜𝑟𝑠

 
𝑛−2


 

 

MAHALANOBIS
 DISTANCE
 
same
 variable
 

 


 


 
NET
 PRESENT
 VALUE
 

 
𝑃! = 𝑃! . 𝜃 !
 

 
𝑃! = 𝑃! . 𝜃 !!

 

 

 

 
MARKOV
 DECISION
 PROCESS
 

 
𝑈! = 𝑅! + 𝛿   max
!

(𝑦 −

 
𝑛−2

 

𝑇 𝑠, 𝑎, 𝑠′ . 𝑈(𝑠′)
 
!


 
𝜋! = argmax


𝑇 𝑠, 𝑎, 𝑠′ . 𝑈(𝑠′)
 

!

!

!!


 


 
𝑇 𝑠, 𝑎, 𝑠 ! . max 𝑄(𝑠 ! , 𝑎′)
 

𝑄!,! = 𝑅! + 𝛿   max

𝑦)!

𝑆𝐸𝐸 =

(𝑥! − 𝑥! )!

 
𝜎!

 


 
MANHATTAN
 DISTANCE
 L
 

 
𝑀𝑎𝑛ℎ = |𝑥! − 𝑥! | + |𝑦! − 𝑦! |
 
𝑀=

!  !

!

𝑄!,! ←! 𝑅! + 𝛿   max 𝑄 𝑠 ! , 𝑎′
 

 


 

!



 


PROBABILIDADE
 (coins)
 

 

 
𝑃(𝑎)
𝑃 𝑎 =

 
𝑃(𝐴)

 

 

 

 

 
FREQUENTISTA
 

 

 
𝑚
𝑠𝑢𝑐𝑒𝑠𝑠𝑜𝑠

𝑒𝑣𝑒𝑛𝑡𝑜𝑠
lim = =
=

 
!→!
𝑛 ỗ


AXIOMTICA



() 0


 


 

𝑃(𝐴, 𝐵, 𝐶) = 1
 

 

 
TEROREMAS
 DE
 PROBABILIDADE

 

 

 
UNIÃO
 =
 A
 ou
 B
 

 
𝑃(𝐴𝑈𝐵)!"#$%&!'(!) = 𝑃 𝐴 + 𝑃(𝐵)
 

 

 
𝑃(𝐴𝑈𝐵)!Ã!  !"#$%&!'(!) = 𝑃 𝐴 + 𝑃 𝐵 − 𝑃(𝐴 ∩ 𝐵)
 

 

 


 

𝑃(𝐴𝑈𝐵𝑈𝐶)!Ã!  !"#$%&!'(!)

= 𝑃 𝐴 + 𝑃 𝐵 + 𝑃 𝐶 − 𝑃 𝐴 ∩ 𝐵 − 𝑃(𝐴 ∩ 𝐶) − 𝑃(𝐵
∩ 𝐶) − 𝑃(𝐴 ∩ 𝐵 ∩ 𝐶)
 

 

 
EVENTO
 COMPLEMENTAR
 

 

 
𝑃 Ã = 1 − 𝑃(𝐴)
 

 

 

 
PROBABILIDADE
 MARGINAL
 

 
𝑃(𝐴 = 𝑎)
𝑃 𝑎 =


 
𝑃(𝐴)

 

 

 
PROBABILIDADE
 A
 e
 B
 

 
𝑃(𝐴 ∩ 𝐵)
𝑃 𝐴  𝑒  𝐵 =

 
𝑃(𝐵)

 

 

 
PROBABILIDADE
 CONDICIONAL
 


 

 
𝑃 𝐴 𝐵 !"#$%$"#$"&$' = 𝑃(𝐴)
 

 

 

 

 

 


BAYES
 (52
 cartas
 ,
 cancer)
 

 

 
𝑃(𝐴 ∩ 𝐵) 𝑃 𝐵 𝐴 . 𝑃(𝐴)
𝑃 𝐴𝐵 =
=


 
𝑃(𝐵)
𝑃(𝐵)

 

 
BINOMIAL
DISTRIBUTION
(0,1
sucesso)






=
. 𝑠 ! . (1 − 𝑃 𝑠 )!
 
𝑠𝑢𝑐𝑒𝑠𝑠𝑜



=
. ! . ( )!
 
𝑠𝑢𝑐𝑒𝑠𝑠𝑜


 

 
𝑆
𝑃 𝑆𝑢𝑐𝑒𝑠𝑠𝑜 =
𝑃 𝑠 .
𝑃(𝑠)
 
𝑠

 

!∈!

INTEGRAIS
 

 
!

𝐹 𝑏 − 𝐹 𝑎
 
!

!


 



 

𝑃 𝐷 =

𝑃 𝐵 =

𝑃 𝐴∩𝐵 =

𝑃 𝐴 . 𝑃(𝐵|𝐴)
 


 

 

 
PROBABILITY
 k
 SUCCESS
 in
 n
 TRIALS
 

 
𝑛
𝑃 𝑘  𝑖𝑛  𝑛 =
. 𝑝! . (1 − 𝑝)!!!
 

𝑘

 

1
1
1
𝑥 ! 𝑑𝑥 = 𝑥 ! = 2! − 1!
 
3
3
3

 
PRODUCT
 RULE
 

 

 

𝑐. 𝑓′ 𝑥 . 𝑑𝑥 = 𝑐

!∈!

𝑐!
. 𝑃 𝑎 ! . (1 − 𝑃 𝑎 )!
 
𝑎! 𝑐 − 𝑎 !


 

 

 
PROBABILIDADE
 TOTAL
 (urnas)
 

 

!


 

 


 
CHAIN
 RULE
 

 

 
𝑓 𝑥 + 𝑔 𝑥 . 𝑑𝑥 =



 

𝑓′ 𝑥 . 𝑑𝑥
 

𝑓 𝑥 . 𝑑𝑥 +

INTEGRATION
 

 

 
Δ𝑥 = 0
𝑓′ 𝑥 . Δ𝑥

 
𝑁→∞

 

 
DIFFERENTIATION
 

 

 

𝑓 𝑎 + Δ𝑥 − 𝑓(𝑎)
lim

 
!→!
Δ𝑥

 

𝑔 𝑥 . 𝑑(𝑥)
 



 


 

LINEAR
 ALGEBRA
 

 
ADDITION
 

 

 

1 2
2 2
2 4
+
=

 
4 3
5 3
9 6

 

 
SCALAR
 MULTIPLY
 

 

 
2 2
6 6
3∗
=

 
5 3
15 9


 

 
MATRIX
 VECTOR
 MULTIPLICATION
 

 
Linhas
 x
 Colunas
 

 
x
 Vetor:
 Colunas
 A
 =
 Linhas
 B
 

 
𝐴!,! ∗ 𝐵!,! = 𝐶!,!
 
0 3
6
1

= 7
 
1 3 ∗
2
2 4
9

 

 
1 2 3
1
5
1 4 5 ∗ 2 = 9
 
0 3 2
0
6

 
OU
 

 


 


 



 

1 2 3
1
1
2
3
5
1 4 5 ∗ 2 = 1 ∗ 1 + 2 ∗ 4 + 0 ∗ 5 = 9
 
0 3 2
0
0
3
2
6

 
x
 Matrix:
 Colunas
 A
 =
 Linhas
 B
 
Linhas
 A

 =
 Colunas
 B
 

 
𝑨𝟐,𝟏 = 𝟐𝒂  𝒍𝒊𝒏𝒉𝒂  𝒙  𝟏𝒂  𝒄𝒐𝒍𝒖𝒏𝒂
 
0 3
1 2 3
8 24
∗ 1 3 =

 
0 4 5
14 37
2 5

 

 
1 2 3
1 2 0 ∗ 4 5 6 = 12 30 0
 
7 8 9

 
IMPORTANTE
 


 
𝑨𝟐,𝟑 = 𝟐𝒂  𝒍𝒊𝒏𝒉𝒂  𝒙  𝟑𝒂  𝒄𝒐𝒍𝒖𝒏𝒂
 

 

 
1 0 0
1 2 1
−3 1 0 ∗ 3 8 1 =
 
0 0 1
0 4 1

 
𝐴!,! 𝐴!,! 𝐴!,!
1 2 1
𝐴
𝐴
𝐴
= !,!
!,!
!,! = 0 2 −2
 
𝐴!,! 𝐴!,! 𝐴!,!
0 4 1

 

 


 

 

 


PERMUTATION
 

 
LEFT=exchange
 rows
 

 
0 1
𝑎 𝑏
𝑐 𝑑

=

 
1 0
𝑐 𝑑
𝑎 𝑏

 
RIGHT=exchange

 columns
 

 
0 1
𝑎 𝑏
𝑏 𝑎

=

 
𝑐 𝑑
1 0
𝑑 𝑐

 

 

 
IDENTIDADE
 

 
1 0 0
0 1 0
 
0 0 1

 


 
DIAGONAL
 

 
2 0 0
0 2 0
 
0 0 2

 

 

 

 

 
TRANSPOSE
 

 
1 4
1 2 3 !
𝐴=
 𝐴 = 2 5
 
4 5 6

3 6

 

 

PROPRIEDADES
 

 

 
Not
 commutative
 
𝐴 ∗ 𝐵 ≠ 𝐵 ∗ 𝐴
 

 

 
Associative
 
𝐴 ∗ 𝐵 ∗ 𝐶 = 𝐴 ∗ (𝐵 ∗ 𝐶)
 

 

 


 
Inverse
 (only
 squared)
 
1
𝐴!! ≠
 
𝐴

 
1 0
𝐴!! . 𝐴 = 𝐼 =

 
0 1

 

 
DETERMINANTE
 

 
1 3
= 1.2 − 3.4 = −10
 
4 2

 


 

1 4 7 1 4
2 5 8 2 5 = 1.5.9 + 4.8.3 + 7.2.6 − 7.5.3 − 1.8.6 − 4.2.9
 
3 6 9 3 6

 

 
ELASTICIDADE
 DE
 DEMANDA
 

 
(𝑄! − 𝑄! ) (𝑃! + 𝑃! )
𝜌=
.

 
(𝑄! + 𝑄! ) (𝑃! − 𝑃! )



Tài liệu bạn tìm kiếm đã sẵn sàng tải về

Tải bản đầy đủ ngay
×