UnisquadsU
로그인
홈
이용약관·개인정보처리방침·콘텐츠정책·© 2026 Unisquads
이용약관·개인정보처리방침·콘텐츠정책
© 2026 Unisquads. All rights reserved.

최소 제곱법 (r1)

이 문서의 과거 버전 (r1)을 보고 있습니다. 수정일: 2026.02.25 15:57

최소 제곱법

정의

선형 회귀 분석에서 사용되는 표준적인 방법으로, 잔차 제곱의 합을 최소화하는 모수 추정 기법

유형

선형 최소 제곱법

비선형 최소 제곱법

최초 등장

1805년

개발자/발명자

아드리앵마리 르장드르[?]

카를 프리드리히 가우스[?]

주요 용도

회귀 분석

곡선 피팅

데이터 피팅

관련 분야

통계학

계량경제학

기계 학습

상세 정보

핵심 원리

관측값과 모델에 의한 추정값 사이의 차이인 잔차의 제곱 합을 최소화하는 모수를 찾음

수학적 표현

S = Σ(y_i - f(x_i, β))^2를 최소화하는 모수 β를 찾는 문제

선형 모델 해법

정규 방정식을 풀거나 행렬 연산(예: (X^T X)^{-1} X^T y)을 통해 해를 구할 수 있음

가정 조건

오차항은 평균이 0이고 분산이 일정하며 서로 독립이고 정규분포를 따름

장점

해석이 용이하고 계산이 비교적 간단함

추정량이 BLUE[?] 성질을 가짐

단점/한계

이상치에 민감함

다중공선성이 있을 경우 추정이 불안정해짐

관련 확장 개념

가중 최소 제곱법

일반화 최소 제곱법

부분 최소 제곱법

1. 개요

최소 제곱법은 통계학과 수학에서 데이터 피팅을 위해 널리 사용되는 기초적인 추정 기법이다. 이 방법의 핵심은 관측된 데이터와 모델 예측값 사이의 차이인 잔차의 제곱을 모두 더한 값을 최소화하는 모수를 찾는 것이다. 주로 선형 회귀 분석에서 독립 변수와 종속 변수 간의 선형 관계를 가장 잘 설명하는 직선을 찾는 데 활용되며, 계량경제학과 기계 학습의 회귀 문제에서도 표준적인 도구로 자리 잡고 있다.

이 방법은 1805년 프랑스의 수학자 아드리앵마리 르장드르에 의해 처음 발표되었으며, 독일의 수학자 카를 프리드리히 가우스도 독자적으로 개발하고 천체 궤도 계산에 적용한 것으로 알려져 있다. 최소 제곱법의 기본 아이디어는 오차를 제곱하여 합산함으로써, 양의 오차와 음의 오차가 상쇄되는 것을 방지하고 큰 오차에 더 큰 패널티를 부여하는 데 있다.

주요 응용 분야로는 회귀 분석을 통한 변수 간 관계 규명, 실험 데이터에 대한 곡선 피팅, 그리고 공학 분야의 시스템 식별 등이 있다. 이 방법은 그 수학적 명료함과 계산의 용이성 덕분에 다양한 과학 및 공학 분야에서 데이터를 분석하고 모델을 구축하는 데 필수적인 방법론이 되었다.

2. 수학적 정의

2.1. 선형 모델

선형 모델에서의 최소 제곱법은 관측된 데이터와 선형 모델의 예측값 사이의 차이인 잔차의 제곱 합을 최소화하는 모수를 찾는 방법이다. 이때 선형 모델은 일반적으로 독립 변수와 종속 변수 간의 관계를 선형 함수로 가정하며, 가장 기본적인 형태는 단순 선형 회귀 모델이다.

선형 모델은 종속 변수 y를 하나 이상의 독립 변수 x와 모수 β의 선형 결합으로 표현한다. 다중 선형 회귀의 경우, 모델은 y = β₀ + β₁x₁ + β₂x₂ + ... + βₚxₚ + ε 와 같은 형태를 가진다. 여기서 β₀는 절편, β₁부터 βₚ는 각 독립 변수에 대한 기울기 계수이며, ε은 오차항을 나타낸다. 최소 제곱법의 목표는 모든 관측 데이터에 대해 계산된 잔차 제곱 합, 즉 Σ(yᵢ - ŷᵢ)²를 최소화하는 β 값들의 집합을 추정하는 것이다.

이 방법은 모델이 선형성을 가질 때 매우 효율적이며, 해가 정규 방정식을 통해 명시적으로 구해질 수 있다는 장점이 있다. 선형 최소 제곱법은 회귀 분석, 계량경제학, 기계 학습을 포함한 다양한 분야에서 데이터의 경향성을 설명하거나 예측 모델을 구축하는 데 널리 활용된다.

2.2. 최소화 문제

최소 제곱법의 핵심은 최소화 문제를 설정하고 해결하는 데 있다. 이 방법의 목표는 관측된 데이터와 모델이 예측하는 값 사이의 차이, 즉 잔차의 제곱을 모두 더한 합을 최소화하는 모수를 찾는 것이다. 이때 최소화하려는 목표 함수를 잔차 제곱 합이라고 부른다.

구체적으로, 주어진 데이터 포인트 (x_i, y_i)에 대해 선형 모델 y = β_0 + β_1 x 를 가정하면, 각 데이터에 대한 잔차는 y_i - (β_0 + β_1 x_i)로 계산된다. 최소 제곱법은 모든 데이터 포인트에 대해 이 잔차들의 제곱을 합한 Σ [y_i - (β_0 + β_1 x_i)]^2 값을 최소로 만드는 절편 β_0와 기울기 β_1을 추정한다. 이 최소화 문제는 미적분학을 활용해 해결할 수 있으며, 목표 함수를 각 모수에 대해 편미분한 식을 0으로 놓고 연립하여 해를 구한다.

이 원리는 독립 변수가 여러 개인 다중 선형 회귀 분석으로 자연스럽게 확장된다. 이 경우 모델은 y = β_0 + β_1 x_1 + ... + β_p x_p 형태가 되며, 최소화 문제는 Σ [y_i - (β_0 + β_1 x_1i + ... + β_p x_pi)]^2 를 최소화하는 p+1개의 회귀 계수 벡터를 찾는 것이 된다. 이러한 최소화 문제의 해는 정규 방정식을 풀거나 행렬 연산을 통해 효율적으로 구할 수 있다.

최소화 문제로서의 접근은 최소 제곱법을 곡선 피팅이나 시스템 식별 등 다양한 분야에 적용할 수 있는 일반적인 프레임워크를 제공한다. 기본적인 선형 모델을 넘어, 모델이 모수에 대해 비선형일 경우 비선형 최소 제곱법으로, 데이터의 중요도가 다를 경우 가중 최소 제곱법으로 이 최소화 문제를 변형하여 해결한다.

3. 해법

3.1. 정규 방정식

정규 방정식은 선형 최소 제곱법 문제를 해결하는 가장 기본적인 방법 중 하나이다. 이 방법은 잔차 제곱의 합을 최소화하는 모수 벡터를 직접 계산하는 공식을 제공한다. 선형 모델에서 예측값과 실제 관측값 사이의 오차 제곱합을 최소화하는 해는, 설계 행렬과 목표 변수 벡터로 구성된 특정 방정식의 해와 일치한다. 이 방정식이 바로 정규 방정식이다.

정규 방정식은 행렬 미분을 통해 유도할 수 있다. 잔차 제곱의 합을 목적 함수로 설정하고, 이를 모수 벡터에 대해 미분한 후 그 기울기를 0으로 놓으면 정규 방정식을 얻는다. 이 방정식의 해는 최적의 모수 추정치를 제공하며, 이 과정은 회귀 분석의 핵심 계산 단계를 이룬다. 이 방법은 아드리앵마리 르장드르와 카를 프리드리히 가우스에 의해 독립적으로 개발된 것으로 알려져 있다.

정규 방정식의 해는 이론적으로 명확하지만, 실제 계산 시 몇 가지 주의점이 있다. 방정식의 계수 행렬이 가역행렬이어야 하며, 이는 설계 행렬의 열들이 선형 독립일 때 보장된다. 또한, 계수 행렬의 조건수가 나쁘면(즉, 다중공선성 문제가 있으면) 수치적 불안정성이 발생하여 해의 정확도가 떨어질 수 있다. 이러한 경우 특이값 분해나 QR 분해와 같은 다른 수치 해법이 대안으로 사용된다.

특징

설명

해법 유형

직접 해법 (폐쇄형 해)

주요 계산

행렬의 전치와 역행렬 연산

장점

이론적으로 명확하고 이해하기 쉬움

단점

대규모 데이터셋이나 조건이 나쁜 행렬에서는 계산 비효율적 또는 불안정

대체 방법

경사 하강법, QR 분해, 특이값 분해

3.2. 행렬 표현

선형 최소 제곱법 문제는 행렬과 벡터를 사용하여 간결하게 표현할 수 있다. 관측 데이터를 설계 행렬 X와 관측값 벡터 y로 구성하면, 선형 모델은 y ≈ Xβ의 형태가 된다. 여기서 β는 추정하고자 하는 미지의 모수 벡터이다.

이때 최소화해야 할 목표 함수, 즉 잔차 제곱합 S(β)는 행렬 표기로 S(β) = (y - Xβ)^T (y - Xβ)로 쓸 수 있다. 이 목표 함수를 최소화하는 모수 추정값 β̂은 정규 방정식 X^T X β̂ = X^T y를 풀어 구한다. 설계 행렬 X가 완전한 열 랭크를 가질 경우, 정규 방정식의 해는 β̂ = (X^T X)^{-1} X^T y라는 명시적인 해를 갖는다.

이 행렬 표현은 계산상의 이점을 제공한다. 정규 방정식을 구성하고 이를 풀기 위해 행렬 곱셈과 역행렬 계산과 같은 선형대수적 연산을 직접 적용할 수 있다. 또한, 이 표현은 다중 회귀 분석을 포함한 일반적인 선형 모델에 통일된 방식으로 접근할 수 있게 해준다.

실제 계산에서는 수치 선형대수 기법을 활용한다. 정규 방정식을 직접 풀기보다는 QR 분해나 특이값 분해(SVD)와 같은 방법을 사용하여 수치적 안정성을 높이는 것이 일반적이다. 이러한 행렬 기반의 접근법은 통계 소프트웨어와 과학 계산 라이브러리의 핵심 알고리즘으로 구현되어 널리 사용된다.

4. 응용 분야

4.1. 회귀 분석

최소 제곱법은 회귀 분석에서 가장 기본적이고 널리 사용되는 추정 방법이다. 특히 선형 회귀 분석에서 종속 변수와 하나 이상의 독립 변수 간의 선형 관계를 모델링할 때, 관측된 데이터와 모델 예측값 사이의 차이인 잔차의 제곱 합을 최소화하는 회귀 계수를 추정하는 데 핵심적으로 활용된다. 이 방법은 1805년 아드리앵마리 르장드르에 의해 공식적으로 발표되었으며, 카를 프리드리히 가우스도 천문학 관측 데이터 처리에 독자적으로 사용한 바 있다.

회귀 분석에서 최소 제곱법을 적용한 모델은 최소제곱추정량을 산출하며, 이 추정량은 가우스-마르코프 정리 하에서 불편추정량이면서 최선선형불편추정량의 성질을 가진다. 이는 오차가 동분산성을 가지며 서로 상관관계가 없을 때, 동일한 선형 불편추정량 중에서 분산이 가장 작은 효율적인 추정량임을 의미한다. 이러한 통계적 특성으로 인해 최소 제곱법은 계량경제학과 기계 학습의 지도 학습 모델 등 다양한 분야의 표준 도구로 자리 잡았다.

응용 분야

주요 내용

단순 선형 회귀

하나의 독립 변수와 종속 변수의 관계를 직선으로 모델링한다.

다중 선형 회귀

두 개 이상의 독립 변수가 종속 변수에 미치는 영향을 동시에 분석한다.

가설 검정

추정된 회귀 계수의 유의성을 평가하는 데 사용된다.

그러나 최소 제곱법 기반의 회귀 분석은 몇 가지 중요한 가정에 의존한다. 주요 가정으로는 오차항의 평균이 0이고, 등분산성을 가지며, 서로 독립이고, 독립 변수와 상관관계가 없어야 한다는 점이다. 또한 이상치나 높은 공선성이 존재할 경우 추정 결과가 크게 왜곡될 수 있는 한계를 지닌다. 이러한 한계를 보완하기 위해 가중 최소 제곱법, 릿지 회귀, 라소 회귀 등의 변형 방법들이 개발되어 활용되고 있다.

4.2. 곡선 피팅

곡선 피팅은 주어진 데이터 포인트 집합에 가장 잘 맞는 곡선 또는 수학적 함수를 찾는 과정이다. 이는 최소 제곱법의 가장 일반적인 응용 분야 중 하나로, 관측된 데이터와 곡선 모델에 의해 예측된 값 사이의 차이인 잔차의 제곱 합을 최소화하는 원리를 사용한다. 목표는 데이터의 기본적인 추세나 패턴을 가장 잘 설명하는 모델의 매개변수를 결정하는 것이다.

곡선 피팅은 선형 회귀와 같은 단순한 직선 모델에서부터 다항식 회귀, 지수 함수, 로그 함수 등 다양한 복잡한 비선형 모델에 이르기까지 광범위하게 적용된다. 예를 들어, 실험 데이터의 추세를 분석하거나, 시계열 데이터를 예측하거나, 이미지 처리에서 경계를 식별하는 데 사용된다. 특히 공학, 물리학, 생물학, 금융 등 실험적 또는 관측 데이터를 해석해야 하는 거의 모든 과학 및 공학 분야에서 핵심 도구로 활용된다.

비선형 관계를 피팅할 때는 비선형 최소 제곱법이 주로 사용된다. 이 방법은 선형 모델로 직접 변환할 수 없는 복잡한 함수에 대해 반복 알고리즘(예: 가우스-뉴턴 방법, 레벤버그-마쿼트 알고리즘)을 사용하여 해를 점진적으로 찾아낸다. 선택된 곡선 모델은 문제의 배경 지식과 데이터의 특성에 기반해야 하며, 지나치게 복잡한 모델은 과적합을 초래하여 새로운 데이터에 대한 예측 성능을 떨어뜨릴 수 있다.

따라서 효과적인 곡선 피팅은 적절한 모델 선택, 최소 제곱법을 통한 정확한 매개변수 추정, 그리고 결과 모델의 타당성 평가라는 세 가지 단계를 포함한다. 이를 통해 원시 데이터를 넘어서 현상을 설명하는 유용한 수학적 표현을 얻을 수 있다.

4.3. 시스템 식별

시스템 식별은 최소 제곱법의 중요한 응용 분야 중 하나이다. 이는 관측된 입력과 출력 데이터를 바탕으로, 해당 시스템의 동적 특성을 설명하는 수학적 모델을 구축하는 과정을 의미한다. 주로 제어 공학, 신호 처리, 기계 학습 분야에서 시스템의 내부 구조나 매개변수를 추정하는 데 활용된다.

시스템 식별 문제는 종종 선형 회귀 모델의 형태로 표현될 수 있다. 여기서 미지의 시스템 매개변수는 회귀 계수로, 시스템의 동적 응답은 종속 변수로 모델링된다. 최소 제곱법을 적용하면, 실제 측정된 시스템 출력과 모델이 예측한 출력 사이의 오차 제곱합을 최소화하는 매개변수 값을 추정할 수 있다. 이를 통해 시스템의 전달 함수나 상태 공간 모델과 같은 수학적 표현을 얻을 수 있다.

이 기법은 공정 제어, 로봇 공학, 항공우주 공학, 경제 모델링 등 다양한 공학 및 과학 분야에서 실제 시스템의 거동을 예측하고 최적의 제어 입력을 설계하는 데 필수적이다. 특히 데이터 기반 모델링의 핵심 도구로서, 복잡한 물리적 법칙을 완전히 이해하기 어려운 경우에도 실험 데이터만으로 유용한 모델을 도출할 수 있게 해준다.

5. 확장 및 변형

5.1. 가중 최소 제곱법

가중 최소 제곱법은 표준 최소 제곱법의 확장된 형태이다. 이 방법은 관측값마다 서로 다른 중요도 또는 신뢰도를 부여할 수 있는 상황을 다룬다. 기본 아이디어는 각 데이터 포인트에 가중치를 할당하여, 신뢰도가 높은 관측값은 모델 피팅에 더 큰 영향을 미치도록 하고, 신뢰도가 낮은 관측값의 영향은 줄이는 것이다.

이 기법은 특히 오차의 분산이 일정하지 않은 이분산성이 존재하는 경우에 유용하다. 표준 최소 제곱법은 모든 잔차를 동등하게 취급하지만, 가중 최소 제곱법은 각 잔차에 가중치를 곱한 가중 잔차 제곱합을 최소화하는 모수를 추정한다. 가중치는 일반적으로 각 관측값의 오차 분산에 반비례하도록 설정된다.

가중 최소 제곱법의 해는 행렬 형태로 표현될 수 있으며, 정규 방정식에 가중치 행렬을 포함시켜 유도된다. 이는 선형 회귀 분석에서 중요한 도구로, 보다 정확한 계량경제학적 추정이나 측정 오차가 다른 실험 데이터 처리에 적용된다.

이 방법의 한 가지 실용적인 고려 사항은 적절한 가중치를 결정하는 것이다. 가중치는 사전 지식이나 잔차 분석을 통해 추정된 오차 분산으로부터 도출될 수 있다. 잘못된 가중치를 사용하면 오히려 추정의 효율성을 떨어뜨릴 수 있으므로 주의가 필요하다.

5.2. 비선형 최소 제곱법

비선형 최소 제곱법은 모델이 모수에 대해 비선형인 경우에 적용되는 최소 제곱법의 확장이다. 선형 최소 제곱법은 모델이 모수의 선형 결합으로 표현될 수 있을 때 사용되지만, 많은 실제 문제에서는 지수 함수나 로그 함수, 삼각 함수와 같은 비선형 관계를 모델링해야 한다. 이때 모델의 예측값과 실제 관측값 사이의 잔차 제곱합을 최소화하는 모수를 찾는 과정이 비선형 최소 제곱 문제가 된다.

해법은 일반적으로 반복법을 사용한다. 초기 추정값에서 시작하여, 각 반복 단계에서 목적 함수를 근사화하거나 경사 하강법을 통해 모수 추정치를 점진적으로 갱신한다. 대표적인 알고리즘으로는 가우스-뉴턴 방법, 레벤버그-마쿼트 알고리즘 등이 있다. 이러한 방법들은 비선형 연립방정식을 푸는 데에도 활용된다.

비선형 최소 제곱법은 화학 반응 속도론, 생물학적 성장 모델, 공학적 시스템 식별 등 다양한 과학 및 공학 분야에서 널리 사용된다. 예를 들어, 약동학에서 약물 농도의 시간에 따른 감소를 모델링하거나, 영상 처리에서 카메라 왜곡 보정을 수행할 때 적용될 수 있다.

이 방법은 강력한 도구이지만 몇 가지 주의점이 있다. 해법이 초기값에 민감할 수 있어 국소 최솟값에 빠질 위험이 있으며, 계산 비용이 선형 경우보다 훨씬 높다. 또한 모델의 선택이 매우 중요하며, 잘못된 모델을 사용하면 의미 없는 결과를 도출할 수 있다.

5.3. 정규화 (릿지, 라소)

최소 제곱법의 기본 형태는 관측값과 모델 예측값 사이의 차이인 잔차의 제곱합을 최소화하는 데 초점을 맞춘다. 그러나 이 방법은 입력 변수들 간에 높은 상관관계가 존재하는 다중공선성 문제가 있거나, 훈련 데이터에 과도하게 맞추어져 새로운 데이터에 대한 일반화 성능이 떨어지는 과적합 현상이 발생할 수 있다. 이러한 문제를 완화하고 모델의 안정성을 높이기 위해 도입된 기법이 정규화를 포함한 최소 제곱법의 변형이다.

정규화의 핵심 아이디어는 손실 함수에 페널티 항을 추가하여 모델 계수의 크기를 제한하는 것이다. 가장 대표적인 방법으로 릿지 회귀와 라소 회귀가 있다. 릿지 회귀는 계수 값의 제곱합에 비례하는 L2 노름 페널티를 추가하며, 이는 모든 계수를 균일하게 줄여 전체적으로 더 안정된 해를 제공한다. 반면, 라소 회귀는 계수 절댓값의 합인 L1 노름 페널티를 사용하는데, 이 페널티는 일부 계수의 값을 정확히 0으로 만들 수 있어 변수 선택의 효과를 동시에 가져온다.

이러한 정규화 기법들은 기계 학습과 통계 모델링에서 매우 널리 응용된다. 릿지 회귀는 주로 다중공선성이 심한 데이터에서 예측 성능을 향상시키는 데 사용되며, 라소 회귀는 설명 변수의 수가 많거나 불필요한 변수를 제거하여 해석 가능한 모델을 구축하려 할 때 유용하다. 두 방법 모두 정규화의 강도를 조절하는 하이퍼파라미터를 포함하며, 이 값은 일반적으로 교차 검증을 통해 최적화된다.

릿지와 라소 외에도, 두 페널티를 결합한 엘라스틱넷 같은 변형 모델도 존재한다. 이러한 정규화 접근법은 선형 회귀 모델의 한계를 보완하고, 고차원 데이터나 상관관계가 높은 데이터를 다룰 때 보다 강건한 회귀 분석을 가능하게 한다.

6. 특성 및 한계

6.1. 통계적 특성

최소 제곱법으로 추정된 모수는 통계학에서 매우 중요한 특성을 가진다. 가장 기본적인 선형 회귀 모델의 가정 하에서, 최소 제곱 추정량은 불편 추정량이다. 이는 추정량의 기대값이 실제 모수값과 일치함을 의미하며, 체계적인 오차가 없이 평균적으로 정확한 추정을 제공한다.

또한, 가우스-마르코프 정리에 따르면, 오차항이 등분산성을 가지고 서로 상관관계가 없다는 가정 하에서, 최소 제곱 추정량은 모든 선형 불편 추정량 중에서 최소 분산을 가지는, 즉 가장 효율적인 추정량이 된다. 이러한 특성으로 인해 최소 제곱법은 회귀 분석과 계량경제학에서 표준적인 추정 방법으로 널리 사용된다.

최소 제곱 추정량의 분포는 일반적으로 정규 분포를 따른다. 특히 오차항 자체가 정규 분포를 따른다는 가정이 성립할 경우, 추정량은 정확한 정규 분포를 따르게 되어 가설 검정과 신뢰 구간 구축에 유용하게 활용된다. 이는 t-검정이나 F-검정과 같은 통계적 유의성 검정의 기초가 된다.

그러나 이러한 이상적인 통계적 특성들은 모델의 가정이 충족될 때만 보장된다. 오차항에 이상치가 존재하거나, 이분산성 문제가 발생하는 경우, 또는 설명 변수들 간에 다중공선성이 강하게 나타나는 경우에는 최소 제곱 추정량의 효율성이 떨어지거나 편향이 발생할 수 있다. 이러한 한계를 보완하기 위해 로버스트 회귀나 앞서 언급된 정규화 방법들이 개발되었다.

6.2. 이상치 영향

최소 제곱법은 잔차의 제곱합을 최소화하는 원리를 기반으로 하기 때문에, 데이터에 포함된 이상치의 영향을 매우 크게 받는다. 잔차를 제곱하여 합산하기 때문에, 평균에서 크게 벗어난 하나의 관측치가 존재하더라도 그 잔차의 제곱은 전체 목적 함수에 지나치게 큰 기여를 하게 된다. 이로 인해 추정된 회귀 직선이 이상치 쪽으로 끌려가게 되어, 나머지 대다수의 데이터를 제대로 설명하지 못하는 왜곡된 결과를 초래할 수 있다.

이러한 이상치의 민감성은 최소 제곱법의 주요 한계점으로 지적된다. 특히 재무 데이터나 실험 오차와 같이 극단적인 값이 발생하기 쉬운 분야에서 모델의 강건성이 떨어지는 문제를 야기한다. 이상치가 종속 변수의 방향으로 존재할 경우 그 영향이 가장 크며, 독립 변수 공간에서 멀리 떨어진 레버리지 포인트에 이상치가 위치하면 모델 추정에 미치는 영향이 더욱 증폭된다.

이상치의 영향을 완화하기 위한 대안으로는 잔차의 절댓값을 사용하는 최소 절댓값법이나, 잔차의 제곱 대신 덜 민감한 로버스트 손실 함수를 채택하는 방법이 있다. 또한, 가중 최소 제곱법을 적용하여 이상치에 낮은 가중치를 부여하거나, 데이터를 사전에 분석하여 이상치를 제거하는 전처리 과정을 거치는 것도 일반적인 접근 방식이다.

7. 계산적 고려사항

최소 제곱법 문제를 실제로 계산할 때는 수치적 안정성과 계산 효율성을 고려해야 한다. 가장 기본적인 해법인 정규 방정식을 직접 푸는 방법은 직관적이지만, 행렬 $X^T X$의 역행렬을 계산해야 하며, 이는 조건수가 나쁜 경우 수치적으로 불안정할 수 있다. 특히 독립 변수들 간에 다중공선성이 존재하거나 데이터의 차원이 높은 경우 이러한 문제가 두드러진다.

따라서 실제 구현에서는 QR 분해나 특이값 분해(SVD)와 같은 수치적으로 더 안정적인 행렬 분해 기법이 널리 사용된다. QR 분해는 설계 행렬 $X$를 직교 행렬 $Q$와 상삼각 행렬 $R$의 곱으로 분해하여, 정규 방정식을 $R \beta = Q^T y$ 형태의 간단한 방정식으로 변환하여 해를 구한다. 이 방법은 $X^T X$를 명시적으로 계산하지 않아 수치적 정확도가 높다. 한편, 특이값 분해는 가장 강력한 방법으로, 조건수가 매우 나쁜 문제나 랭크 결핍이 있는 문제에도 적용할 수 있으며, 의사역행렬을 계산하는 데 사용된다.

대규모 데이터셋이나 스파스 행렬을 다루는 경우, 반복법이나 확률적 경사 하강법과 같은 최적화 알고리즘이 효율적일 수 있다. 또한, 정규화를 적용한 릿지 회귀나 라소 회귀 문제를 풀 때는 좌표 하강법이나 최소 각도 회귀와 같은 특화된 알고리즘이 사용된다. 이러한 계산적 고려사항은 기계 학습과 데이터 과학에서 최소 제곱법 모델을 효율적으로 학습하고 배포하는 데 필수적이다.

8. 관련 문서

  • 위키백과 - 선형 회귀

  • 위키백과 - 가우스-마르코프 정리

  • 위키백과 - 잔차 (통계학)

  • 위키백과 - 회귀 분석

  • 위키백과 - 정규 방정식

  • 경제학사전 - 최소자승법

  • 한국통계진흥원 - 통계용어사전: 최소제곱법

  • KOCW - 공개강의: 회귀분석과 최소제곱법

리비전 정보

버전r1
수정일2026.02.25 15:57
편집자unisquads
편집 요약AI 자동 생성