Likelihood
-
Loss Function Outlinedeep learning 2024. 3. 15. 00:31
Log-Likelihood (로그 우도) 모델이나 분포가 주어진 데이터를 얼마나 잘 설명하는지 측정하는 지표 Log-Likelihood : 확률 모델의 parameter가 주어졌을 때, 관측된 데이터가 발생할 로그 확률의 합으로, 주어진 데이터 세트에 대해 특정 parameter 값이 얼마나 ‘타당한지’를 수치로 나타내는 것으로 이해 가능 $$ DataSet X = \{x_1, x_2, x_3,... , x_n\} $$ $$ L(\theta; X) = \log P(X | \theta) = \sum_{i=1}^n \log P(x_i | \theta) $$ 모델의 파라미터가 theta, 데이터 세트가 X일 때 Log-Likelihoodo L은 모델 파라미터가 주어졌을 때 X가 나타날 로그 확률이며, 이는 파..
-
MLEdeep learning 2024. 2. 23. 00:15
신경망 모델의 output을 바라보는 두 가지 관점 input에 대한 output이 특정 label일 확률로 보는 경우 (Bernoulli) 이 관점에서 신경망 모델의 weights는 input data가 정답 label일 확률을 높일 수 있도록 학습 이 관점에서 model의 목적은 lassification의 관점과 유사하게, input data가 특정 label을 가질 확률을 높이도록 weight를 조절하는 것 input에 대한 output이 input data의 attribute의 확률분포의 평균 값으로 보는 경우 (Gaussian) 이 관점에서 신경망 모델의 weight는 output이 정답 label이 갖는 확률분포의 평균 값을 출력할 수 있도록 학습 이 관점에서 model의 목적은 input d..