본문 바로가기
인공지능

선형 회귀 (Linear Regression)

by 3in9u 2025. 3. 21.

📖 1. 선형 회귀란?

  • **지도 학습(Supervised Learning)**의 한 종류
  • 예측하고자 하는 **목표값(종속 변수, y)**이 연속적인 수치형 값일 때 사용
  • 데이터를 직선 혹은 곡선 형태로 모델링하여 예측

📚 2. 종류에 따른 구분

종류설명예시
단순 선형 회귀 (Simple Linear Regression) 입력변수가 하나인 경우 집 평수(x) → 가격(y)
다중 선형 회귀 (Multiple Linear Regression) 입력변수가 여러 개인 경우 평수, 위치, 연식 등 여러 요인 → 가격
다항 회귀 (Polynomial Regression) 입력변수의 차수를 올려 곡선으로 모델링 공부시간(x)에 따른 성적(y)의 곡선 관계

🧮 3. 선형 회귀 모델 수식

💡 기본 형태:

기호의미
yy 실제 목표값(종속 변수)
xx 입력값(독립 변수)
β0\beta_0 절편(intercept): x=0일 때의 y값
β1\beta_1 기울기(slope): x가 변할 때 y가 얼마나 변하는지
ε\varepsilon 오차항(error term): 실제값과 예측값의 차이

🔍 4. 최소제곱법 (OLS: Ordinary Least Squares)

💡 핵심 개념:

  • **예측값과 실제값의 차이(오차)**를 제곱한 값들의 합을 최소화하여 가장 적절한 회귀선을 찾음

⚙️ 구현 방법:

  • 해석적 방법: 수식을 통해 직접 계산 (행렬 연산)
  • 경사 하강법(Gradient Descent): 반복적으로 가중치를 조정하여 오차 최소화

🎯 목적:


🔁 5. 다항 회귀 (Polynomial Regression)

💡 왜 필요할까?

  • 단순 선형 회귀는 직선 형태의 데이터만 설명 가능
  • 현실 데이터는 곡선일 수 있으므로, 더 높은 차수의 항을 추가하여 모델링

📐 수식 예시:

  • x2,x3x^2, x^3 등의 항을 통해 곡선 형태의 데이터도 모델링 가능
  • 과도한 차수 사용 시 **과적합(overfitting)**에 주의해야 함

📌 정리 요약

구분설명
선형 회귀 입력값과 출력값 사이의 관계를 직선으로 모델링
최소제곱법(OLS) 예측 오차의 제곱합을 최소화하여 최적의 직선 도출
다항 회귀 곡선 형태의 데이터를 설명하기 위해 입력값의 차수를 올린 회귀
학습 방법 해석적 방법(행렬 연산), 경사하강법 등