모델
과적합
Overfitting

모델이 훈련 데이터에 너무 맞게 학습되어 새로운 데이터에서 성능이 나빠지는 현상. AI 모델이 "외운 것"과 "이해한 것"을 구분하는 핵심 개념이다.

개념 설명

시험 문제를 풀 때 기출문제를 통째로 외운 학생과 개념을 이해한 학생의 차이와 비슷하다. 기출문제만 외운 학생은 시험 문제가 조금만 바뀌면 틀린다 — 과적합이 이런 현상이다. 훈련 데이터의 노이즈와 특이한 패턴까지 학습해서 훈련 성능은 높은데 테스트 성능은 낮은 상태다. 과소적합(모델이 너무 단순)과 반대 개념이다.

사용 예시

파인튜닝할 때 가장 흔히 만나는 문제다. 훈련 손실은 계속 줄어드는데 검증 손실이 어느 순간부터 늘어나기 시작하면 과적합이 시작된 것이다. 드롭아웃(학습 중 일부 뉴런을 무작위로 비활성화), L2 정규화, 조기 종료(early stopping), 데이터 증강으로 과적합을 줄인다. 훈련/검증/테스트 데이터를 분리하고 검증 성능을 모니터링하는 습관이 과적합 탐지의 기본이다.

#일반화#정규화#검증
← AI Wiki에서 더 보기