본문 바로가기
인공지능

전이 학습 (Transfer Learning)

by 3in9u 2025. 3. 27.

🔍 전이 학습이란?

이미 학습된 모델의 지식(특징)을 새로운 문제에 활용하는 기법

  • 대규모 데이터로 학습된 모델의 가중치특징 추출 능력재활용
  • 새로운 데이터가 적거나 학습 시간이 부족할 때 특히 유용

🧠 전이 학습의 핵심 구조

[ Pretrained Model ]
        ↓
[ Feature Extractor ]
        ↓
[ New Task-specific Output Layer ]
        ↓
[ Fine-tuning (일부 층 조정) ]
 

🔧 구조 구성 요소

단계설명
사전 학습된 모델 로딩 ImageNet으로 학습된 VGG, ResNet, BERT 등 불러오기
특징 추출기 재사용 Conv Layer, Transformer Encoder 등 유지
새로운 출력층 추가 Fully Connected Layer 또는 Classifier 변경
파인튜닝 (Fine-Tuning) 마지막 몇 층의 가중치만 학습에 참여

🔁 파인 튜닝 (Fine-Tuning)

기존 모델 전체를 새로 학습하는 게 아니라, 일부만 미세 조정

  • 처음부터 전부 학습 ❌ → 시간 낭비, 정보 손실
  • 기존 모델의 지식을 유지하면서, 새로운 데이터에 맞게 일부만 수정

📌 파인 튜닝 시 학습률(Learning Rate)을 작게 설정하는 것이 중요!


✅ 전이 학습의 장점

장점설명
데이터가 적어도 학습 가능 적은 데이터셋으로도 높은 성능 가능
빠른 학습 이미 학습된 구조를 활용하므로 속도가 빠름
좋은 초기화 랜덤 초기화보다 더 안정적인 시작점 제공

⚠️ 전이 학습의 단점

단점설명
태스크 간 유사성이 낮으면 효과 ↓ 예: 자동차 이미지 → 고양이 분류 ❌
큰 사전 모델은 리소스 소모 ↑ BERT, GPT 같은 모델은 연산 자원 많이 필요

📚 전이 학습 활용 사례

🎨 이미지 인식

  • 의료 영상 진단 (암 탐지, CT 분석)
  • 자율 주행 차량 객체 인식
  • 감시 시스템에서 이상 행동 탐지

사용 모델: ResNet, EfficientNet, MobileNet


🗣 자연어 처리 (NLP)

  • 감정 분석, 문서 분류, 질의응답, 번역

사용 모델: BERT, GPT, RoBERTa, T5


🔊 음성 인식

  • 언어별 자동 음성 인식 시스템

사용 모델: Wav2Vec2.0, Whisper


📌 요약 한 줄

전이 학습은 이미 잘 배운 모델을 활용해서,
새로운 과제를 더 빠르고 효율적으로 해결하는 방법!

'인공지능' 카테고리의 다른 글

Transformer란?  (0) 2025.04.04
GAN 전체 정리  (0) 2025.03.31
CNN 아키텍처 발전 흐름 요약  (0) 2025.03.27
딥러닝 학습 핵심 개념 정리  (0) 2025.03.27
RNN (Recurrent Neural Network)  (0) 2025.03.27