일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- AI Fairness
- Ai
- MLOps
- word2vec
- GPT
- 인공지능 신뢰성
- 챗지피티
- gpt2
- 딥러닝
- Bert
- fairness
- 챗GPT
- 신뢰성
- 트랜스포머
- ML
- nlp
- GPT-3
- 머신러닝
- 자연어
- ChatGPT
- cnn
- 케라스
- Transformer
- 인공지능
- DevOps
- trustworthiness
- 지피티
- Tokenization
- XAI
- 설명가능성
Archives
- Today
- Total
목록1d conv (1)
research notes
NLP를 위한 합성곱 신경망(Convolution Neural Network)
*** 딥 러닝을 이용한 자연어 처리 입문 (위키북스) 내용 요약 *** 합성곱 신경망은 주로 비전 분야에서 사용되는 알고리즘이지만 이를 응용해서 자연어 처리에 사용하기 위한 방법들이 연구되고 있다. 각 문장은 임베딩 층(embedding layer)을 지나서 각 단어가 임베딩 벡터가 된 상태로 LSTM의 입력이 되며, 1D 합성곱 연산도 마찬가지로 1D 합성곱 연산의 입력이 되는 것은 각 단어가 벡터로 변환된 문장 행렬이다. (n: 문장의 길이, k: 임베딩 벡터 차원) 1D 합성곱 연산에서 커널의 너비는 문장 행렬에서의 임베딩 벡터의 차원과 동일하게 설정된다. 그렇기 때문에 1D 합성곱 연산에서는 커널의 높이만으로 해당 커널의 크기라고 간주한다. 가령, 커널의 크기가 2인 경우에는 아래의 그림과 같이..
자연어/Basic
2022. 4. 12. 12:50