Minlog

Minlog

  • Category
    • About
    • Bayesian
    • Preliminary
      • Stochastic Process
      • Probability
      • Measure
      • Server
    • Research
      • Anomaly Detection
      • Segmentation
      • Active Learning
      • Continual Learning
      • Large Language Model
    • Machine Learning
      • General
      • Models
    • Memorizing
      • Trouble-Shooting
      • Ubuntu
      • Etc
      • Python
      • Java
      • C
      • Qt
      • Jetson
      • Quantization
    • BE
      • NodeJS
      • Flask
      • Spring
      • Deploy
      • Docker
      • EC2
      • APM
      • NGINX
      • TESTING
    • FE
      • JS
      • CSS
    • PS
      • 백준
      • SOFTEER
      • 리트코드
  • 홈
  • 태그
  • 방명록
RSS 피드
로그인
로그아웃 글쓰기 관리

Minlog

컨텐츠 검색

태그

Python MCMC dfs C 백준 jetson orin nano 확률그래프모델 CSS MarkovChain Montecarlo FLASK 항해99 Probabilistic Graphical Model ps spring 가우시안 혼합모델 jetpack6 c++ HTML 회고 CUDA

최근글

댓글

공지사항

아카이브

Overfitting(1)

  • [general] 3. 과대적합, 과소적합(Over-fitting, Under-fitting)

    이전 글([Machine Learning] - 2-1. 편향-분산 절충 관계 증명(Bias-Variance Trade-off Proof))에서 모델을 학습하는 과정에서 사용되는 식을 예측모델의 편향과 분산으로 나눌 수 있음을 증명하였습니다. 이번 글에서는 예측모델 관점에서의 과대 적합과 과소 적합에 대해 알아보겠습니다. 우리가 예측모델을 학습시킬 때, 왼쪽 상단의 모습처럼 분산도 낮고 편향도 낮은 모델을 학습시키는 것이 가장 이상적인 그림입니다. 하지만, 예측모델의 편향과 분산의 합은 정해져 있기 때문에, 둘 간의 절충 관계가 생기게 됩니다. 오른쪽 상단과 같이 훈련 데이터에 대해 편향은 낮지만, 분산이 높은 경우를 가리켜 "모델이 훈련 데이터에 과대 적합되었다"라고 말합니다. 즉, 훈련 데이터의 정답은..

    2021.07.11
이전
1
다음
티스토리
© 2018 TISTORY. All rights reserved.

티스토리툴바