일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- nlp
- 챗지피티
- 머신러닝
- Bert
- 인공지능 신뢰성
- 지피티
- word2vec
- 자연어
- 신뢰성
- Transformer
- 딥러닝
- Tokenization
- ML
- 인공지능
- 설명가능성
- 트랜스포머
- trustworthiness
- Ai
- fairness
- 챗GPT
- XAI
- ChatGPT
- AI Fairness
- 케라스
- gpt2
- cnn
- DevOps
- GPT-3
- GPT
- MLOps
Archives
- Today
- Total
목록번역 (1)
research notes
시퀸스-투-시퀸스 및 어텐션 매커니즘
1. Sequence-to-Sequence 모델 정의 하나의 RNN을 인코더 또 다른 하나의 RNN을 디코더라는 모듈로 명명하고 두 개의 RNN을 연결해서 사용하는 인코더-디코더 구조를 시퀀스-투-시퀀스(Sequence-to-Sequence, seq2seq)로 정의한다. 이러한 인코더-디코더 구조는 주로 입력 문장과 출력 문장의 길이가 다를 경우에 사용하는데, 대표적인 분야가 번역기나 텍스트 요약과 같은 경우가 있다. 영어 문장을 한국어 문장으로 번역한다고 하였을 때 입력 문장인 영어 문장과 번역된 결과인 한국어 문장의 길이는 똑같을 필요가 없다. 2. 컨텍스트 벡터(Context vector) seq2seq는 크게 인코더와 디코더라는 두 개의 모듈로 구성된다. 인코더 RNN 셀은 모든 단어를 입력받은 ..
GPT/개념정의
2022. 2. 17. 22:22