일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- fairness
- AI Fairness
- Tokenization
- XAI
- 자연어
- word2vec
- ML
- 딥러닝
- nlp
- 챗GPT
- 설명가능성
- 인공지능
- DevOps
- GPT
- 챗지피티
- 트랜스포머
- MLOps
- 케라스
- cnn
- Transformer
- Ai
- GPT-3
- 신뢰성
- 인공지능 신뢰성
- ChatGPT
- trustworthiness
- Bert
- 머신러닝
- gpt2
- 지피티
Archives
- Today
- Total
목록허깅페이스 (1)
research notes
BERT(Bidirectional Encoder Representation from Transformer)
BERT는 구글에서 발표한 최신 임베딩 모델이며 트랜스포머를 이용하여 구현되었다. 또한, 위키피디아(25억 단어)와 BooksCorpus(8억 단어)와 같은 레이블이 없는 텍스트 데이터로 사전 훈련된 언어 모델이다. BERT가 높은 성능을 얻을 수 있었던 것은, 레이블이 없는 방대한 데이터로 사전 훈련된 모델을 가지고, 레이블이 있는 다른 작업(Task)에서 추가 훈련과 함께 하이퍼파라미터를 재조정하여 이 모델을 사용하면 성능이 높게 나오는 기존의 사례들을 참고하였기 때문이다. 다른 작업에 대해서 파라미터 재조정을 위한 추가 훈련 과정을 파인 튜닝(Fine-tuning)이라고 한다. 아래 그림은 BERT의 파인 튜닝 사례를 보여준다. 우리가 하고 싶은 태스크가 스팸 메일 분류라고 하였을 때, 이미 위키피..
GPT/개념정의
2022. 10. 25. 21:44