2. Machine, Deep Learning/Language
Honestree
2025. 1. 8. 00:00
2025. 1. 8. 00:00
1. GPT-1 (2018)
- 기술적 특징
- 파라미터: 1.17억개
- 데이터: BookCorpus (7,000권의 미출판 도서)
- 트레이닝 방식:
- 비지도 사전학습 + 지도학습 미세조정
- 다음 단어 예측 작업으로 학습
- 아키텍처:
- 12-layer 디코더 전용 트랜스포머
- 768 차원의 임베딩
- 12개의 어텐션 헤드
- 주요 혁신
- 트랜스포머 기반 언어 모델 상용화
- 전이 학습의 효과적인 활용
- 제한적이지만 문맥 이해 능력 입증
- 참고문헌: Radford, A., et al. (2018). "Improving Language Understanding by Generative Pre-Training"
2. GPT-2 (2019)
- 기술적 특징
- 파라미터: 15억개 (최대 버전)
- 데이터: WebText (40GB의 고품질 인터넷 텍스트)
- 학습 방식:
- 제로샷 태스크 학습에 초점
- 더 긴 컨텍스트 처리 가능
- 아키텍처:
- 48-layer 트랜스포머
- 1,600 차원의 임베딩
- 25개의 어텐션 헤드
- 주요 발전
- 제로샷 학습 능력 입증
- 고품질 텍스트 생성
- 다양한 태스크 수행 능력
- 컨텍스트 이해도 향상
- 윤리적 고려사항으로 인한 단계적 공개
- 초기: 117M 파라미터 모델
- 중기: 355M 모델
- 후기: 774M 모델
- 최종: 1.5B 모델
- 참고문헌: Radford, A., et al. (2019). "Language Models are Unsupervised Multitask Learners"
3. GPT-3 (2020)
- 기술적 특징
- 파라미터: 1,750억개
- 데이터:
- Common Crawl
- WebText2
- Books1&2
- Wikipedia
- 학습 방식:
- 아키텍처:
- 96-layer 트랜스포머
- 12,288 차원의 임베딩
- 96개의 어텐션 헤드
- 핵심 혁신
- 규모의 효과 입증
- 모델 크기 증가에 따른 성능 향상
- 새로운 능력의 자연스러운 출현
- 퓨샷 학습 능력
- 적은 예시로 새로운 태스크 수행
- 문맥 학습의 효율성
- 다양한 응용 가능성
- 한계점
- 계산 비용
- 환경적 영향
- 편향성 문제
- 사실 정확성
- 참고문헌: Brown, T., et al. (2020). "Language Models are Few-Shot Learners"
4. GPT-4 (2023)
- 기술적 특징
- 멀티모달 능력:
- 이미지 이해 및 분석
- 다양한 형식의 입력 처리
- 향상된 추론 능력:
- 안전성 강화:
- 주요 발전
- 전문 분야 성능
- 시스템 통합
- API 기반 서비스
- 플러그인 시스템
- 타 서비스와의 연동
- 안전성 및 제어
- 참고문헌: OpenAI. (2023). "GPT-4 Technical Report"
Honestree
2025. 1. 7. 23:43
2025. 1. 7. 23:43
BERT와 양방향 모델 (2018-2019)
- BERT (Bidirectional Encoder Representations from Transformers)
- Google AI가 개발, 2018년 10월 공개
- MLM(Masked Language Modeling) 및 NSP(Next Sentence Prediction) 도입
- GLUE 벤치마크에서 획기적인 성능 달성
- 참고: Devlin, J., et al. (2018). "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding"
주요 BERT 변형 모델들
- RoBERTa (2019, Facebook AI)
- 더 큰 배치 크기와 더 긴 학습 시간
- 동적 마스킹 도입
- NSP 제거로 성능 개선
- 참고: Liu, Y., et al. (2019). "RoBERTa: A Robustly Optimized BERT Pretraining Approach"
- ALBERT (2019, Google Research)
- 파라미터 공유로 모델 크기 감소
- 문장 순서 예측 태스크 도입
- 참고: Lan, Z., et al. (2019). "ALBERT: A Lite BERT for Self-supervised Learning of Language Representations"
Honestree
2025. 1. 7. 23:37
2025. 1. 7. 23:37
1. 초기 통계적 접근 (1960-1970년대)
- 통계적 언어 모델의 탄생
- 1948년 Claude Shannon이 "A Mathematical Theory of Communication"에서 정보 이론 소개
- 1960년대 IBM의 Frederick Jelinek가 음성 인식을 위한 n-gram 모델 개발
- 주요 논문: Shannon, C. E. (1948). "A Mathematical Theory of Communication." Bell System Technical Journal.
- 초기 구현의 한계
- 하드웨어 제약: 당시 컴퓨터는 수백 KB의 메모리만 보유
- 데이터 부족: 디지털화된 텍스트 코퍼스 부재
- 계산 복잡성: n이 증가할수록 n-gram 모델의 복잡도가 기하급수적 증가
2. 신경망 시대의 시작 (1980-1990년대)
- 초기 신경망 모델
- 1986년 Rumelhart, Hinton, Williams가 역전파 알고리즘 제안
- 1989년 Elman이 순환 신경망(RNN) 소개
- 주요 논문: Rumelhart, D. E., et al. (1986). "Learning representations by back-propagating errors." Nature.
- 주요 혁신
- 단어 표현의 분산 표현 개념 도입
- 문맥 기반 언어 처리의 기초 확립
- LSTM (1997년, Hochreiter & Schmidhuber) 개발
- 참고 문헌: Hochreiter, S., & Schmidhuber, J. (1997). "Long Short-Term Memory." Neural Computation.
3. 현대적 접근의 시작 (2000년대 초-중반)
- 신경망 언어 모델의 발전
- 2003년 Bengio의 신경망 언어 모델 제안
- 확률적 문맥 표현 도입
- 주요 논문: Bengio, Y., et al. (2003). "A Neural Probabilistic Language Model." JMLR.
- 단어 임베딩의 혁신
- 2013년 Word2Vec (Mikolov et al.)
- 2014년 GloVe (Pennington et al.)
- 참고: Mikolov, T., et al. (2013). "Efficient Estimation of Word Representations in Vector Space." arXiv.
4. 트랜스포머 혁명 (2017-현재)
- 트랜스포머 아키텍처
- 2017년 "Attention is All You Need" 논문 발표
- 어텐션 메커니즘의 혁신적 도입
- 주요 논문: Vaswani, A., et al. (2017). "Attention is All You Need." NeurIPS.
5. BERT와 양방향 모델 (2018-2019)
- BERT (2018): 양방향 인코딩 도입 [LLM] BERT 정리
- GPT-1 (2018): 생성적 사전 학습 도입 [LLM] GPT 정리
- GPT-2 (2019): 제로샷 학습 능력 입증
- GPT-3 (2020): 1,750억 매개변수 규모
- 참고: Devlin, J., et al. (2019). "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding." NAACL.
6. 최신 발전 (2022-2024)
- 멀티모달 모델
- DALL-E, Stable Diffusion: 텍스트-이미지 생성
- GPT-4: 다중 양식 입력 처리
- 참고: OpenAI. (2023). "GPT-4 Technical Report." arXiv.
- 특화 모델
- Github Copilot: 코드 생성 특화
- ChatGPT: 대화형 인터페이스 최적화
- Claude: 윤리적 고려사항 강화