- 표현 학습(Representation Learning)은 기계 학습의 한 분야로, 원시 데이터를 더 유용하거나 의미 있는 형태로 변환하는 과정임.
- 주로 고차원이고 복잡한 데이터를 저차원이면서유용한 형태의 데이터로 변환하는 과정을 포함
- 표현 학습의 목표는 원시 데이터로부터 더 유용한 특징이나 속성을 추출하여 해당 데이터에 내재된 패턴이나 구조를 더 잘 파악할 수 있도록 하는 것임
- Representation Learning은 지도 학습과 비지도 학습 모두에 적용될 수 있음.
- 활용 사례
- Feature Extraction : 이미지, 텍스트 또는 음성과 같은 데이터에서 의미있는 특징을 추출하여 해당 데이터의 표현을 개선
- Auto Encoder : 인코더와 디코더로 구성되며, 입력을 저차원의 표현으로 압축하고 다시 복원함으로써 학습
- VAE (Variational Auto Encoder) : 확률적으로 변하는 인코딩과 디코딩을 수행하는 신경망. 확률적 표현으로 더 다양한 데이터를 학습할 수 있음.
- Word2Vec : 단어를 벡터로 매필하는 모델. CBOW(Continuous Bag of Words)와 Skip-gram 이 주로 사용됨.
- BERT(Bidirectional Encoder Representations from Tranformers) : Transformer 아키텍처를 사용한 양방향 언어 모델. 문장 내 모든 단어를 고려하여 문맥에 따른 단어 표현을 학습
- Limiatations
- Lack of Labels : 레이블이 부족한 경우가 많아 표현학습의 성능이 제한적일 수 있음.
- Lack of Interpretability : 내재된 표현이 해석하기 어려울 수 있어서, 어떻게 특징이 추출되었는지 이해하기 어려울 수 있음.
- Overfitting : 복잡한 데이터에 과적합되어 일반화 성능이 떨어질 수 있음.
- Data Dependency : 사용된 데이터의 품질과 양에 매우 의존적이며, 다양한 데이터에 적용할 때 일반화가 어려울 수 있음.
- Calculation Cost : 학습과 추론에 큰 계산비용이 필요할 수 있으므로, 대규모 데이터셋이나 실시간 응용에 어려울 수 있음.
'Deep Learning' 카테고리의 다른 글
UNET 구조, 설명 (1) | 2023.12.12 |
---|---|
편향(Bias)와 분산(Variance) 개념 정리 (0) | 2023.12.11 |
이미지 전이학습(Image Transfer learning) 패키지 Timm (0) | 2023.11.03 |
딥러닝 서버 세팅-우분투 설치 후 gpu 환경 설치 (0) | 2023.10.31 |
Tensor를 detach() 하는 이유 (0) | 2023.10.19 |