Machine Learning/General8
-
[Metric] Precision/Recall Trade-off
Confusion Matrix 이진 분류 모델이 예측한 결과는 맞다Positive, 아니다Negatives 두 가지 경우로 나타날 수 있습니다. 모델이 예측한 결과가 정답인 경우 True와 함께 판단 결과를 써주고, 모델이 예측한 결과가 정답이 아닌 경우 False와 함께 판단 결과를 써줍니다. 이 결과들을 종합하면 총 4가지 경우의 수가 나타날 수 있습니다. 4가지 경우의 수는 아래와 같습니다. True Positive맞다고예측한결과가맞는경우 False Positive맞다고예측하였는데,아니다가정답인경우 True Negative아니다라고예측한결과가맞는경우 False Negative아니다라고예측하였는데,맞다가정답인경우 Threshold 이진 분류의 모델은..
2022.09.20 -
[general] 일반적인 EM 알고리즘TheEMAlgorithminGeneral
이전 글 EM 알고리즘ExpectationandMaximizationAlgorithm에서 가우시안 혼합 모델에 대한 EM 알고리즘을 다루었습니다. 예시로 가우시안 혼합 모델의 모수를 추정하였지만, 본래 EM 알고리즘은 잠재 변수가 있는 모델에 대해 모두 사용할 수 있습니다. 이번 글에서는 가우시안 혼합 모델에 국한하지 않고, 일반적으로 잠재 변수가 있는 모델에서 어떻게 모수를 추정하게 되는지 알아보겠습니다. 또한 가우시안 혼합 모델을 기반으로 많은 이야기가 전개되니 가우시안 혼합 모델도 읽고 오시는 것을 추천드립니다. [관련 글] 가우시안 혼합 모델GaussianMixture,가우시안 혼합 모델의 확장ExtentionofGaussianMixture 변수를 주변화 하는 기본적인 방법은..
2021.07.28 -
[general] EM 알고리즘ExpectationandMaximizationAlgorithm
이번 글에서는 최대 우도 추정법MLE을 사용할 수 없는 경우, 모수를 추정하기 위해 사용할 수 있는 EM 알고리즘에 대해 알아보겠습니다. EM 알고리즘은 일반적인 모델에서 쓰일 수 있지만, 이번 글에서는 가우시안 혼합 모델의 모수를 추정하기 위해 쓰는 경우에 대해 알아보겠습니다. 따라서 이전 글가우시안 혼합 모델의 확장ExtentionofGaussianMixture을 읽고 오시면 도움이 될 것입니다. 가우시안 혼합 모델의 주변 분포와 로그 우도는 다음과 같습니다. $\begin {align} &pxn=\displaystyle \sum_{k=1}^{K}{\pi_k Nxn|μk, Σk} \\ &ln~ p(\textbf {X}|\mathbf {\pi}, \mathbf {\..
2021.07.28 -
[general] 3. 과대적합, 과소적합Over−fitting,Under−fitting
이전 글[MachineLearning]−2−1.편향−분산절충관계증명(Bias−VarianceTrade−offProof)에서 모델을 학습하는 과정에서 사용되는 식을 예측모델의 편향과 분산으로 나눌 수 있음을 증명하였습니다. 이번 글에서는 예측모델 관점에서의 과대 적합과 과소 적합에 대해 알아보겠습니다. 우리가 예측모델을 학습시킬 때, 왼쪽 상단의 모습처럼 분산도 낮고 편향도 낮은 모델을 학습시키는 것이 가장 이상적인 그림입니다. 하지만, 예측모델의 편향과 분산의 합은 정해져 있기 때문에, 둘 간의 절충 관계가 생기게 됩니다. 오른쪽 상단과 같이 훈련 데이터에 대해 편향은 낮지만, 분산이 높은 경우를 가리켜 "모델이 훈련 데이터에 과대 적합되었다"라고 말합니다. 즉, 훈련 데이터의 정답은..
2021.07.11 -
[general] 2-1. 편향-분산 절충관계 증명Bias−VarianceTrade−offProof
이전 글[MachineLearning]−2.모델학습(Howcanwetrainamodel?)에서 모델이 학습하는 과정을 어떻게 수식으로 나타낼 수 있는지에 대해 알아보았습니다. 또한 그 수식을 예측모델의 편향과 분산으로 나눌 수 있음을 보았습니다. 이번 글에서는 그 수식을 증명하여 수식의 의미를 조금 더 생각해보겠습니다. 우리가 예측하고자 하는 종속변수 Y와 그의 예측 값 ˆY간의 차이를 줄이면서 모델을 학습하게 된다고 하였고, 그것을 수식으로 나타내면 다음과 같습니다. $E[Y−ˆY^2]=\mathbb {E}[fX+\epsilon-\hat {f}X)^2]~~~~\cdots1 \\ ~~~~~~~~~~~~~~~~~~~~~=\mathbb {E}[..
2021.07.11 -
[general] 2. 모델 학습Howcanwetrainamodel?
이전 글에서 머신러닝이 무엇이고, 어떻게 분류할 수 있는지에 대해 알아보았습니다. 이번 글에서는 머신러닝 모델의 학습을 어떻게 수학적으로 나타낼 수 있는지 알아보겠습니다. 우리가 예측하기를 원하는 종속변수$Y$와 p개의 다른 설명변수 X1, X2,... , Xp가 관찰된다고 해보겠습니다. Y와 X=(X1, X2, ..., Xp) 사이에 어떤 상관관계가 있다고 가정하면, 다음과 같은 일반적인 형태로 나타낼 수 있습니다. Y=f(X)+ϵ 여기서 f는 X1, ..., Xp에 대한 알려지지 않은 어떤 고정 함수이고, ϵ은 랜덤 오 차 항으로 측정되지 않는 변수들을 포함할 수 있습니다. 오 차 항은 X와 독립적이며, 평균은 0이라고..
2021.07.11