티스토리 뷰
반응형
1. L1 Loss (Mean Absolute Error, MAE)
- 공식:
- 설명:
예측값 y^와 실제값 y의 차이(절대값 평균)를 계산하는 손실 함수입니다. - 특징:
- 이상치(Outlier)에 강함 (L2보다 덜 민감)
- 기울기가 일정하여 안정적인 학습 가능
- 사용 사례:
- 회귀 문제에서 이상치가 많을 때 사용
2. MSE Loss (Mean Squared Error, L2 Loss)
- 공식:
- 설명:
예측값과 실제값의 차이를 제곱하여 평균을 구하는 손실 함수입니다. - 특징:
- 차이의 제곱을 사용하여 큰 오차(이상치)에 더 민감함
- L1 Loss보다 더 부드러운 미분값을 가지므로 학습이 더 안정적
- 사용 사례:
- 일반적인 회귀 문제에서 자주 사용
3. Cross Entropy Loss (Categorical Cross-Entropy)
- 공식:
(여기서 yi는 실제 정답의 one-hot encoding, y^i는 softmax를 거친 확률값)
- 설명:
분류 문제에서 예측 확률과 실제 라벨 간의 차이를 측정하는 손실 함수입니다. - 특징:
- Softmax와 함께 사용하여 다중 클래스 분류에서 사용됨
- 정답 확률이 높을수록 손실이 낮아짐
- 입력값은 raw logits로 주어지고, 내부적으로 softmax를 적용하여 확률로 변환 후 손실을 계산
- 사용 사례:
- 이미지 분류, 자연어 처리 등 분류 문제에 사용
4. KL Divergence Loss (Kullback-Leibler Divergence)
- 공식:
(여기서 P(x)는 실제 분포, Q(x)는 예측 분포)
- 설명:
두 확률 분포 P와 Q간의 차이를 측정하는 손실 함수입니다. - 특징:
- 확률 분포를 비교하는 데 사용됨
- Softmax를 거친 확률 분포 간 거리 측정
- 비대칭적 (즉, Dkl(P∣∣Q) ≠ DKLㅋ(Q∣∣P))
- 사용 사례:
- 확률 분포를 예측하는 모델 (예: Variational Autoencoder, NLP에서 Knowledge Distillation)
5. Triplet Margin Loss
- 공식:
(여기서 dd는 거리 함수, aa는 anchor, pp는 positive, nn은 negative 샘플)
- 설명:
임베딩 학습을 위한 손실 함수로, anchor(기준) 샘플이 positive(같은 클래스) 샘플과 가깝고, negative(다른 클래스) 샘플과 멀어지도록 학습합니다. - 특징:
- Siamese Network, Face Recognition 등의 임베딩 학습에 사용됨
- 손실이 0보다 클 때만 학습에 기여함 (hard negative mining이 중요)
- 사용 사례:
- 얼굴 인식, 추천 시스템, 유사도 기반 검색
비교 요약
손실 함수유형특징사용 사례
L1 Loss (MAE) | 회귀 | 이상치에 강함, 일정한 기울기 | 이상치가 있는 회귀 문제 |
MSE Loss (L2 Loss) | 회귀 | 이상치에 민감, 부드러운 미분 | 일반적인 회귀 문제 |
Cross Entropy Loss | 분류 | Softmax와 함께 사용, 확률 예측 | 다중 클래스 분류 |
KL Divergence Loss | 확률 분포 비교 | 비대칭적, 확률 분포 차이 측정 | 확률 기반 모델 (VAE, Knowledge Distillation) |
Triplet Margin Loss | 임베딩 학습 | 샘플 간 거리 조정, hard negative 중요 | 얼굴 인식, 추천 시스템 |
결론:
- 회귀 문제: L1 Loss(이상치에 강함), MSE Loss(일반적인 경우)
- 분류 문제: Cross Entropy Loss
- 확률 분포 비교: KL Divergence Loss
- 임베딩 학습: Triplet Margin Loss
각 손실 함수는 목적에 따라 다르게 사용되므로, 문제 유형에 맞게 선택하는 것이 중요합니다.
반응형
'Data Science' 카테고리의 다른 글
Autoencoder의 구조와 학습 과정 (0) | 2025.03.28 |
---|---|
딥러닝 최적화 알고리즘 SGD, Momentum, NAG, Adam, RMSprop 비교 (0) | 2025.03.27 |
Claude 3.5 Sonnet 버전 1과 2 비교 (1) | 2024.12.27 |
카이제곱 검정 (2) | 2024.04.22 |
ANOVA (Analysis of Variance) (0) | 2024.04.22 |
반응형
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- 삼성전자
- wkt
- aws
- Python
- SCSA
- 삼전
- react
- docker
- ReactDOM
- tsconfig
- SW역량테스트
- 카이제곱검정
- Plotly
- svelte
- cssom
- 렌더트리
- polyfill
- 블로그플랫폼
- graphql
- Polygon
- architecting
- choropleth
- 삼성
- 도커컨테이너
- Next.js
- DOM
- GeoPolygon
- submodule
- konlpy
- 역량테스트
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
글 보관함