일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- Bert
- 트랜스포머
- Ai
- 머신러닝
- GPT
- DevOps
- XAI
- Transformer
- ML
- 설명가능성
- fairness
- 지피티
- 딥러닝
- GPT-3
- MLOps
- 신뢰성
- ChatGPT
- Tokenization
- 인공지능
- 챗GPT
- 자연어
- 케라스
- trustworthiness
- nlp
- 챗지피티
- word2vec
- gpt2
- 인공지능 신뢰성
- AI Fairness
- cnn
Archives
- Today
- Total
목록text classification (1)
research notes
순환 신경망 (RNN)
*** 딥 러닝을 이용한 자연어 처리 입문 (위키북스) 내용 요약 *** 1. RNN 기초 RNN(Recurrent Neural Network)은 입력과 출력을 시퀀스 단위로 처리하는 시퀀스(Sequence) 모델이다. RNN은 은닉층의 노드에서 활성화 함수를 통해 나온 결과값을 출력층 방향으로도 보내면서, 다시 은닉층 노드의 다음 계산의 입력으로 보내는 특징을 갖고있다. (이 때 xt, yt는 벡터이다.) 메모리 셀이 출력층 방향 또는 다음 시점인 t+1의 자신에게 보내는 값을 은닉 상태(hidden state) 라고 한다. 다시 말해 t 시점의 메모리 셀은 t-1 시점의 메모리 셀이 보낸 은닉 상태값을 t 시점의 은닉 상태 계산을 위한 입력값으로 사용한다. RNN은 입력과 출력의 길이를 다르게 설계 ..
자연어/Basic
2022. 2. 14. 22:38