-
[NLP] Transformer 기반의 LLM 소개카테고리 없음 2024. 6. 4. 14:39
< LLM Evolutionary Tree >
< Encoder - Only LLM = AutoEncoding Language Model >
- 입력을 받아 표현(representation) 혹은 특징(feature)을 만듬
- Encoder 모델은 입력을 이해하는데 최적화
- 입력에 대한 이해가 필요한 task에 사용 :
-> 문장 분류, 개체 인식, 질문 답변
- BERT
- ROBERTa
- ALBERT
- Distill BERT
- ELECTRA
< Encoder - Decoder LLM >
- 입력이 필요한 생성 task에 적합하다.
- 번역, 요약
- BART
- T5
< Decoder - Only LLM = Autoregressive Language Model >
- Autoregressive : 이전 단어들이 주어진 시퀀스에서 다음의 단어를 예측하는 방식으로 작동
- 생성 task에 적합
- GPT-1, 2, 3, 4
- Instruct GPT
- ChatGPT
- LLaMA
- BARD
- reference
Transformer를 이용한 대표적인 NLP 모델의 종류 정리
Transformer의 encoder를 사용한 NLP 모델과 decoder를 사용하는 NLP 모델의 차이를 이해하기 위해 정리를 해본다.
moon-walker.medium.com
https://synthedia.substack.com/p/a-timeline-of-large-language-model