평균 제곱 오차
1. 개요
1. 개요
평균 제곱 오차는 통계학과 기계 학습 분야에서 널리 사용되는 오차 측정 지표이다. 주로 회귀 분석 모델의 예측 정확도를 평가하거나 서로 다른 추정량의 효율성을 비교하는 데 활용된다.
이 지표의 핵심은 실제 값과 예측 값 사이의 차이, 즉 오차를 제곱한 후 그 평균을 계산하는 것이다. 오차를 제곱함으로써 양수와 음수의 오차가 상쇄되는 것을 방지하고, 특히 큰 오차에 더 큰 패널티를 부여하는 특성을 가진다. 이러한 특성 때문에 모델이 극단적으로 틀린 예측을 하는 것을 방지하는 데 유용하지만, 반대로 이상치의 영향을 매우 크게 받는 단점도 동시에 지닌다.
평균 제곱 오차는 그 계산의 간결함과 미분 가능성 덕분에 최적화 알고리즘, 특히 경사 하강법과 밀접한 관계를 맺고 있다. 모델의 매개변수를 조정하여 이 값을 최소화하는 것이 많은 회귀 문제의 기본 목표가 된다.
2. 수학적 정의
2. 수학적 정의
2.1. 공식
2.1. 공식
평균 제곱 오차의 공식은 예측값과 실제 관측값 사이의 차이, 즉 오차의 제곱을 평균한 것을 의미한다. 일반적으로 n개의 데이터 포인트에 대해, 각 i번째 데이터의 실제값을 y_i, 모델의 예측값을 ŷ_i라고 할 때, 평균 제곱 오차(MSE)는 다음과 같이 정의된다.
MSE = (1/n) * Σ (y_i - ŷ_i)²
여기서 Σ(시그마)는 i=1부터 n까지의 합을 나타내는 기호이다. 이 공식은 먼저 각 데이터 포인트에 대해 잔차(실제값 - 예측값)를 계산하고, 그 값을 제곱하여 모든 데이터 포인트에 대해 합산한 후, 최종적으로 데이터 포인트의 총 개수 n으로 나누어 평균을 구하는 과정을 담고 있다.
공식의 구성 요소를 살펴보면, 오차를 제곱하는 연산은 몇 가지 중요한 효과를 가져온다. 첫째, 모든 오차가 양의 값이 되어 방향(과대 예측 또는 과소 예측)에 상관없이 오차의 크기만을 측정할 수 있다. 둘째, 제곱 함수의 특성상 큰 오차가 작은 오차에 비해 훨씬 더 크게 반영되므로, 이상치에 민감한 지표가 된다. 이는 모델이 특히 큰 오차를 내는 것을 심각하게 페널티로 간주한다는 것을 의미한다.
2.2. 구성 요소 설명
2.2. 구성 요소 설명
평균 제곱 오차의 공식은 몇 가지 핵심 구성 요소로 이루어져 있다. 이 구성 요소들을 이해하면 MSE가 어떻게 작동하는지 명확히 알 수 있다.
첫 번째 구성 요소는 오차 또는 잔차이다. 이는 관측된 실제 값과 모델이 예측한 값 사이의 차이를 의미한다. 각 데이터 포인트에 대해 '실제 값 - 예측 값' 또는 그 반대로 계산한다. 오차는 양수일 수도 있고 음수일 수도 있다. 두 번째 구성 요소는 제곱 연산이다. 각 오차를 제곱함으로써 몇 가지 효과가 발생한다. 가장 중요한 것은 모든 오차 값을 양수로 만들어, 오차의 방향(과대 예측인지 과소 예측인지)과 무관하게 크기만을 고려할 수 있게 한다는 점이다. 또한, 제곱 연산은 큰 오차에 더 큰 패널티를 부여하는 특성을 가지게 된다. 이는 모델이 극단적으로 틀린 예측을 하지 않도록 유도하는 효과가 있다.
마지막 구성 요소는 평균이다. 모든 데이터 포인트에 대해 계산된 제곱 오차들을 합한 후, 데이터 포인트의 총 개수로 나눈다. 이 단계는 모델의 전체적인 성능을 하나의 숫자로 요약하는 역할을 한다. 데이터셋의 크기에 영향을 받지 않고, 서로 다른 모델이나 데이터셋 간의 성능을 비교할 수 있는 기준을 제공한다. 따라서 MSE는 개별 오차의 크기와 방향, 그리고 데이터셋 전체에 대한 평균적 성능이라는 정보를 종합하여 담고 있는 지표이다.
3. 계산 방법
3. 계산 방법
3.1. 단계별 예시
3.1. 단계별 예시
평균 제곱 오차를 계산하는 과정은 예측값과 실제값의 차이를 제곱한 후 평균을 구하는 단순한 절차를 따릅니다. 다음은 5개의 데이터 포인트에 대한 간단한 예시를 통해 단계별로 설명합니다.
먼저, 예측하려는 대상의 실제값(관측값)과 모델이 예측한 값이 다음과 같다고 가정합니다.
데이터 포인트 | 실제값 (y) | 예측값 (ŷ) |
|---|---|---|
1 | 5 | 4 |
2 | 3 | 3 |
3 | 7 | 9 |
4 | 2 | 1 |
5 | 6 | 7 |
계산은 세 단계로 이루어집니다. 첫 번째 단계는 각 데이터 포인트에 대한 오차(잔차)를 계산하는 것입니다. 오차는 실제값에서 예측값을 뺀 값, 즉 e_i = y_i - ŷ_i로 정의됩니다. 위 표를 기준으로 각 점의 오차는 순서대로 1, 0, -2, 1, -1이 됩니다.
두 번째 단계는 각 오차를 제곱하는 것입니다. 제곱을 함으로써 오차의 부호(양수/음수) 문제를 해결하고, 큰 오차에 더 큰 패널티를 부여합니다. 계산하면 1²=1, 0²=0, (-2)²=4, 1²=1, (-1)²=1이 됩니다. 마지막 단계는 이 제곱 오차들의 합을 데이터 개수(n=5)로 나누어 평균을 구하는 것입니다. 합은 1+0+4+1+1=7이므로, 최종 평균 제곱 오차는 7 / 5 = 1.4가 됩니다.
이 예시에서 세 번째 데이터 포인트의 오차(-2)는 제곱 시 4로 가장 크게 기여하여, 평균 제곱 오차가 큰 오차에 민감하게 반응한다는 특성을 잘 보여줍니다. 이 계산 과정은 데이터셋의 크기가 커지거나 값이 변하더라도 동일한 논리를 적용하여 수행할 수 있습니다.
4. 특성
4. 특성
4.1. 장점
4.1. 장점
평균 제곱 오차는 회귀 분석과 기계 학습에서 모델의 성능을 평가하는 데 널리 사용되는 주요 지표 중 하나입니다. 그 인기는 몇 가지 명확한 이점에서 비롯됩니다.
가장 큰 장점은 수학적으로 다루기 쉽고 미분 가능하다는 점입니다. 오차를 제곱하여 합산하기 때문에, 이 함수는 모든 점에서 매끄럽고 연속적입니다. 이 특성은 경사 하강법과 같은 최적화 알고리즘을 적용하는 데 필수적입니다. 최적화 과정에서 모델의 매개변수를 조정하려면 오차 함수의 기울기(도함수)를 계산해야 하는데, 평균 제곱 오차는 이 계산을 간단하게 만들어 줍니다. 또한, 제곱을 함으로써 모든 오차가 양의 값이 되어, 오차의 총합이 서로 상쇄되지 않고 누적됩니다.
또 다른 중요한 장점은 큰 오차에 대해 강한 페널티를 부과한다는 것입니다. 단순한 오차의 합은 양수와 음수가 서로 상쇄될 수 있지만, 제곱을 하면 작은 오차는 상대적으로 작은 값으로, 큰 오차는 기하급수적으로 커진 값으로 반영됩니다. 이는 모델이 특히 심각한 잘못된 예측(이상치)을 피하도록 유도하는 효과가 있습니다. 통계학적으로는 평균 제곱 오차가 편향과 분산으로 분해될 수 있어, 추정량의 효율성을 비교하고 분석하는 데 유용한 이론적 틀을 제공합니다[1].
4.2. 단점
4.2. 단점
평균 제곱 오차는 큰 오차에 대해 제곱 항을 통해 과도하게 민감하게 반응한다는 주요 단점을 지닌다. 이는 이상치의 존재가 전체 오차 지표에 미치는 영향을 극적으로 증폭시킨다. 예를 들어, 단 하나의 매우 큰 오차가 있을 경우, 제곱 연산으로 인해 평균 절대 오차에 비해 전체 평균 제곱 오차 값이 비정상적으로 커지게 되어 모델의 전반적인 성능 평가를 왜곡할 수 있다. 따라서 데이터에 이상치가 많거나 오차의 분포가 두꺼운 꼬리를 가진 경우에는 이 지표의 사용이 적절하지 않을 수 있다.
또한, 제곱 연산으로 인해 오차의 단위가 원본 데이터의 단위와 일치하지 않는다는 문제가 있다. 예를 들어, 오차가 미터 단위라면 평균 제곱 오차의 단위는 제곱미터가 되어 해석의 직관성을 떨어뜨린다. 이 단점을 보완하기 위해 제곱근을 취한 평균 제곱근 오차가 종종 사용된다. 마지막으로, 평균 제곱 오차는 오차를 제곱함으로써 항상 양의 값을 가지며, 오차의 방향(과대 예측 또는 과소 예측)에 대한 정보를 완전히 상실한다는 점도 한계로 지적된다.
5. 응용 분야
5. 응용 분야
5.1. 회귀 분석
5.1. 회귀 분석
평균 제곱 오차는 회귀 분석에서 가장 널리 사용되는 성능 평가 지표 중 하나이다. 회귀 분석의 목표는 독립 변수와 종속 변수 간의 관계를 모델링하여 새로운 독립 변수 값에 대한 종속 변수의 값을 예측하는 것이다. 이때 모델이 예측한 값과 실제 관측된 값 사이의 차이, 즉 잔차를 측정해야 모델의 정확도를 판단할 수 있다. 평균 제곱 오차는 이러한 잔차들을 제곱하여 평균한 값으로, 모델의 예측 오차를 하나의 숫자로 요약하여 제공한다.
평균 제곱 오차가 회귀 분석에서 중요한 이유는 최소 제곱법과의 직접적인 연관성에 있다. 가장 일반적인 선형 회귀 모델인 최소 제곱 회귀는 바로 평균 제곱 오차를 최소화하는 모델 파라미터(예: 기울기와 절편)를 찾는 방법이다[2]. 따라서 평균 제곱 오차의 값을 최소화하는 과정이 곧 최적의 회귀 직선 또는 곡선을 찾는 과정이 된다. 값이 0에 가까울수록 모델의 예측이 실제 데이터에 완벽히 부합함을 의미하며, 값이 클수록 예측 오차가 큼을 나타낸다.
다양한 회귀 모델(예: 단순 선형 회귀, 다중 선형 회귀, 다항식 회귀)의 성능을 비교할 때 평균 제곱 오차는 공통의 척도 역할을 한다. 예를 들어, 동일한 데이터셋에 대해 다른 복잡도의 모델을 적용했을 때, 평균 제곱 오차가 더 낮은 모델이 일반적으로 더 나은 예측 성능을 가진다고 평가할 수 있다. 그러나 이 지표는 오차를 제곱하므로, 특히 이상치가 존재할 경우 그 영향이 과도하게 증폭되어 모델 평가를 왜곡할 수 있다는 점을 유의해야 한다.
5.2. 기계 학습
5.2. 기계 학습
기계 학습에서 평균 제곱 오차는 주로 지도 학습의 회귀 분석 문제에서 모델의 성능을 평가하는 핵심 손실 함수로 사용된다. 모델이 예측한 값과 실제 목표 변수 값 사이의 차이를 제곱하여 평균함으로써, 예측의 정확도를 하나의 숫자로 요약한다. 이 값이 낮을수록 모델의 예측이 실제 값에 가깝다는 것을 의미하며, 모델 학습 과정에서 최소화해야 할 목표가 된다.
신경망이나 선형 회귀 모델을 훈련할 때, 경사 하강법과 같은 최적화 알고리즘은 주로 이 평균 제곱 오차를 손실 함수로 설정한다. 알고리즘은 모델의 매개변수를 조정하면서 손실 함수의 값을 줄여나가며, 이 과정에서 평균 제곱 오차의 제곱 항 덕분에 발생하는 도함수는 최적화 방향을 명확히 제시한다. 그러나 큰 오차에 과도하게 민감하게 반응하기 때문에, 데이터에 이상치가 많을 경우 모델이 이들에 과도하게 적응하는 문제가 발생할 수 있다.
다음은 기계 학습의 주요 회귀 문제에서 평균 제곱 오차가 어떻게 활용되는지 간략히 정리한 표이다.
응용 분야 | 주요 역할 | 참고 사항 |
|---|---|---|
최적의 회귀 계수를 찾기 위한 목적 함수 | 최소제곱법의 핵심 | |
신경망 학습 | 역전파 알고리즘에서 손실 계산의 기준 | 배치 학습 시 배치 내 샘플들의 평균 손실로 사용됨 |
검증 세트 성능 평가 지표 | ||
그래디언트 부스팅 등에서 잔차 계산의 기초 | 각 단계에서 약한 학습기가 맞춰야 할 목표 생성 |
이처럼 평균 제곱 오차는 모델의 예측 오차를 측정하고, 학습 과정을 이끄는 표준적인 도구로서 기계 학습의 다양한 영역에서 널리 채택된다.
5.3. 신호 처리
5.3. 신호 처리
신호 처리 분야에서 평균 제곱 오차는 원본 신호와 처리된 신호(또는 재구성된 신호) 사이의 차이를 정량화하는 핵심 척도로 사용된다. 이는 신호의 품질 평가, 압축 알고리즘의 성능 비교, 필터 설계의 최적화 등 다양한 맥락에서 중요한 역할을 한다. 예를 들어, 이미지 압축이나 오디오 코덱에서는 원본 데이터와 압축 해제 후의 데이터 사이의 평균 제곱 오차를 계산하여 정보 손실의 정도를 측정한다.
신호 복원이나 잡음 제거 문제에서 평균 제곱 오차는 목표 함수로 자주 설정된다. 필터나 추정기의 매개변수를 조정하여 평균 제곱 오차를 최소화하는 방식으로 최적의 시스템을 설계한다. 이 접근법을 최소 평균 제곱 오차 추정이라고 부르며, 통계적 신호 처리의 기초를 이룬다. 큰 오차에 제곱을 통해 더 큰 패널티를 부여하기 때문에, 평균 제곱 오차를 최소화하는 것은 특히 큰 오류(예: 돌출 잡음이나 심한 왜곡)를 피하는 데 효과적이다.
응용 분야 | 주요 역할 | 비고 |
|---|---|---|
압축 품질 평가(예: PSNR 계산의 기초) | ||
코덱 성능 비교, 음질 객관적 평가 | ||
수신 신호의 복원 품질 측정 | 채널 추정, 등화기 성능 평가에 사용된다. | |
필터 계수 최적화의 목적 함수 |
그러나 신호 처리에서도 평균 제곱 오차의 한계는 인식된다. 인간의 지각 체계는 절대적인 에너지 차이보다는 상대적 차이나 구조적 왜곡에 더 민감할 수 있다. 따라서 최근에는 구조적 유사도 지수와 같은 지각 기반 척도가 평균 제곱 오차를 보완하기 위해 함께 사용되기도 한다.
6. 관련 오차 지표
6. 관련 오차 지표
6.1. 평균 절대 오차(MAE)
6.1. 평균 절대 오차(MAE)
평균 절대 오차(MAE)는 회귀 분석이나 예측 모델의 성능을 평가하는 데 사용되는 지표 중 하나로, 각 예측값과 실제 관측값 사이의 절대적인 차이(오차)의 평균을 계산한다. 평균 제곱 오차(MSE)가 오차를 제곱하여 평균하는 것과 달리, MAE는 오차의 절댓값을 그대로 사용한다는 점이 근본적인 차이이다. 이는 특정 방향(양의 오차 또는 음의 오차)의 편향을 고려하지 않고, 단순히 예측이 평균적으로 얼마나 벗어났는지를 직관적으로 보여준다.
MAE의 계산 공식은 다음과 같다. n개의 샘플에 대해, 각 샘플의 실제값을 y_i, 예측값을 ŷ_i라고 할 때, MAE = (1/n) * Σ |y_i - ŷ_i| 이다. 여기서 Σ는 i=1부터 n까지의 합을 의미한다. 이 공식은 모든 개별 오차의 크기를 동등하게 취급하며, 제곱 연산이 없기 때문에 계산이 비교적 간단하고 해석이 용이하다는 장점이 있다. 예를 들어, MAE 값이 5라면 예측이 평균적으로 실제값에서 5단위만큼 벗어났음을 의미한다.
MSE와 비교했을 때 MAE의 주요 특징은 이상치(Outlier)에 덜 민감하다는 점이다. MSE는 오차를 제곱하기 때문에 큰 오차가 존재할 경우 그 영향이 극적으로 증폭되어 평균값을 크게 끌어올린다. 반면 MAE는 절댓값을 사용하므로 이상치의 영향이 상대적으로 완화된다. 이로 인해 모델의 일반적인 성능을 평가할 때 이상치의 영향을 최소화하고 싶은 경우 MAE가 선호되는 경향이 있다. 그러나 미분 가능성이 떨어진다는 점은 최적화 알고리즘 사용 시 고려해야 할 단점이 될 수 있다[3].
6.2. 평균 제곱근 오차(RMSE)
6.2. 평균 제곱근 오차(RMSE)
평균 제곱근 오차는 평균 제곱 오차에 제곱근을 취한 값이다. 즉, MSE 값을 계산한 후 그 값의 제곱근을 구하여 얻는다. 이 변환의 주요 목적은 오차 지표의 단위를 원본 데이터의 단위와 일치시키는 것이다. MSE는 오차를 제곱하여 평균내기 때문에 단위가 제곱이 되어 해석이 직관적이지 않은 경우가 있다. RMSE는 이를 보정하여, 예측값과 실제값 사이의 평균적인 오차 크기를 원래 데이터와 같은 척도에서 이해할 수 있게 한다.
RMSE는 회귀 분석이나 기계 학습 모델의 예측 정확도를 평가하는 데 널리 사용된다. MSE와 마찬가지로 큰 오차에 대해 더 큰 패널티를 부여하는 특성을 가지므로, 이상치의 영향을 받기 쉽다. 이는 모델이 특정 큰 오차를 내는 샘플에 대해 민감하게 반응하도록 유도할 수 있다. 계산 공식은 MSE의 제곱근이므로, MSE가 클수록 RMSE도 커지며, 두 지표는 모델 성능의 순위를 매길 때 일반적으로 동일한 결과를 낸다.
다른 오차 지표와 비교했을 때, RMSE는 평균 절대 오차보다 큰 오차에 더 민감하게 반응한다. 또한, RMSE는 R-제곱과 같이 상대적인 지표가 아닌 절대적인 오차 크기를 나타내는 지표이다. 신호 처리 분야에서는 예측 신호와 원본 신호 사이의 차이를 측정하는 데 사용되기도 한다.
6.3. R-제곱(R²)
6.3. R-제곱(R²)
R-제곱(R-squared) 또는 결정 계수(Coefficient of Determination)는 회귀 분석 모델이 종속 변수의 변동을 얼마나 잘 설명하는지를 나타내는 지표이다. 이 값은 0에서 1 사이의 범위를 가지며, 1에 가까울수록 모델이 데이터를 완벽하게 설명함을 의미한다. R-제곱은 단순히 오차의 크기를 측정하는 평균 제곱 오차(MSE)나 평균 절대 오차(MAE)와 달리, 모델의 설명력을 상대적인 비율로 제시한다는 특징이 있다.
R-제곱은 총 변동(SST, Total Sum of Squares) 중 회귀 모델로 설명되는 변동(SSR, Regression Sum of Squares)의 비율로 정의된다. 공식으로 표현하면 '1 - (SSE / SST)'이며, 여기서 SSE(Error Sum of Squares)는 잔차 제곱합, 즉 모델이 설명하지 못하는 변동을 의미한다. 따라서 R-제곱 값이 높다는 것은 SSE가 작고, 모델이 데이터의 대부분의 변동을 포착하고 있음을 시사한다.
용어 | 설명 |
|---|---|
총 변동(SST) | 종속 변수의 실제 값과 그 평균 간 차이의 제곱합. 데이터 자체의 전체적인 흩어짐 정도. |
설명된 변동(SSR) | 모델이 예측한 값과 종속 변수의 평균 간 차이의 제곱합. 모델이 설명해낸 변동의 양. |
설명되지 않은 변동(SSE) | 실제 값과 모델 예측값 간 차이(잔차)의 제곱합. 평균 제곱 오차(MSE)에 데이터 개수를 곱한 값과 같음. |
그러나 R-제곱에는 주의할 점이 있다. 독립 변수의 수가 증가하면, 심지어 의미 없는 변수가 추가되더라도 R-제곱 값은 항상 증가하거나 유지되는 특성이 있다. 이는 모델의 실제 예측 능력이 개선되지 않았음에도 지표가 좋아지는 착시를 일으킬 수 있다. 이러한 문제를 보정하기 위해 자유도를 고려한 수정된 R-제곱(Adjusted R-squared)이 사용되기도 한다. 또한 R-제곱은 선형 회귀 모델의 적합도를 평가하는 데 주로 사용되며, 비선형 모델이나 다른 맥락에서는 그 의미가 다르게 해석될 수 있다.
7. 최적화 관점
7. 최적화 관점
7.1. 경사 하강법과의 관계
7.1. 경사 하강법과의 관계
평균 제곱 오차는 경사 하강법과 같은 최적화 알고리즘에서 매우 중요한 역할을 한다. 특히 선형 회귀 모델의 가중치를 학습할 때, 목적 함수로 자주 사용된다. 경사 하강법은 이 목적 함수의 값을 최소화하는 매개변수를 찾기 위해, 함수의 기울기(그래디언트)를 반복적으로 계산하고 그 반대 방향으로 매개변수를 조정한다. 평균 제곱 오차는 미분 가능한 볼록 함수 형태를 가지기 때문에, 이러한 기울기 기반 최적화에 매우 적합하다.
평균 제곱 오차를 손실 함수로 사용할 때, 그 그래디언트는 각 데이터 포인트에 대한 오차에 예측 변수를 곱한 값의 평균으로 계산된다. 이는 계산이 비교적 간단하고, 오차가 클수록 그래디언트도 커져서 가중치 업데이트에 더 큰 영향을 미친다는 특징이 있다. 따라서 경사 하강법은 평균 제곱 오차의 이러한 특성을 이용해, 모델의 예측값과 실제값 사이의 차이를 효율적으로 줄여 나간다. 그러나 이는 동시에 이상치에 의해 그래디언트가 크게 왜곡될 수 있는 원인이 되기도 한다.
최적화 단계 | 평균 제곱 오차의 역할 |
|---|---|
목적 함수 설정 | 최소화해야 할 대상으로 설정됨 |
그래디언트 계산 | 각 가중치에 대한 편미분을 통해 오차의 방향과 크기를 제공함 |
매개변수 업데이트 | 계산된 그래디언트에 학습률을 곱해 가중치를 조정하는 기준이 됨 |
수렴 판단 | 반복 과정에서 평균 제곱 오차 값의 감소 폭이 기준치보다 작아지면 알고리즘을 종료함 |
결론적으로, 평균 제곱 오차는 경사 하강법의 핵심 구성 요소로서, 모델이 데이터에 적합하도록 유도하는 구체적인 수학적 길을 제공한다. 이 둘의 관계는 현대 기계 학습과 딥러닝의 많은 모델 학습 과정의 기초를 이룬다.
8. 여담
8. 여담
평균 제곱 오차는 그 수학적 단순성과 미분 가능성 덕분에 최적화 이론과 기계 학습 분야에서 가장 널리 사용되는 손실 함수 중 하나가 되었다. 특히 선형 회귀 모델의 경우, 평균 제곱 오차를 최소화하는 해가 최소제곱법을 통해 분석적으로 구해질 수 있어 역사적으로 중요한 역할을 했다. 이는 계산 자원이 제한적이던 시절 실용적인 해법을 제공했다.
그러나 큰 오차에 과도하게 민감하다는 점은 때때로 비판을 받기도 한다. 데이터에 이상치가 존재할 경우, 단 하나의 큰 오차가 전체 평균 제곱 오차 값을 크게 왜곡시켜 모델 평가를 어렵게 만들 수 있다. 이러한 이유로 로버스트 통계학 분야에서는 이상치에 덜 민감한 평균 절대 오차나 후버 손실 함수 같은 대안들이 제안되기도 했다.
흥미롭게도, 평균 제곱 오차는 편향-분산 트레이드오프 개념과 깊은 연관이 있다. 추정량의 평균 제곱 오차는 그 추정량의 분산과 편향의 제곱의 합으로 분해될 수 있다[*MSE(θ̂) = Var(θ̂) + [Bias(θ̂)]²]. 이 분해는 추정량을 설계하거나 모델을 선택할 때 편향과 분산 사이의 균형을 고려해야 함을 보여주는 이론적 토대를 제공한다.
용어 | 설명 |
|---|---|
이상치나 모델의 가정으로부터의 작은 이탈에 덜 민감한 통계 방법론을 연구하는 분야 | |
오차가 작은 영역에서는 제곱 오차처럼, 큰 영역에서는 절대 오차처럼 행동하도록 설계된 손실 함수 |
