일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- gpt2
- 머신러닝
- 인공지능 신뢰성
- nlp
- ML
- AI Fairness
- 자연어
- 챗지피티
- 트랜스포머
- Ai
- 딥러닝
- XAI
- GPT-3
- 신뢰성
- GPT
- Bert
- Transformer
- 챗GPT
- word2vec
- trustworthiness
- ChatGPT
- cnn
- 설명가능성
- fairness
- 케라스
- 지피티
- MLOps
- Tokenization
- 인공지능
- DevOps
Archives
- Today
- Total
목록rnn (1)
research notes
순환 신경망 (RNN)
*** 딥 러닝을 이용한 자연어 처리 입문 (위키북스) 내용 요약 *** 1. RNN 기초 RNN(Recurrent Neural Network)은 입력과 출력을 시퀀스 단위로 처리하는 시퀀스(Sequence) 모델이다. RNN은 은닉층의 노드에서 활성화 함수를 통해 나온 결과값을 출력층 방향으로도 보내면서, 다시 은닉층 노드의 다음 계산의 입력으로 보내는 특징을 갖고있다. (이 때 xt, yt는 벡터이다.) 메모리 셀이 출력층 방향 또는 다음 시점인 t+1의 자신에게 보내는 값을 은닉 상태(hidden state) 라고 한다. 다시 말해 t 시점의 메모리 셀은 t-1 시점의 메모리 셀이 보낸 은닉 상태값을 t 시점의 은닉 상태 계산을 위한 입력값으로 사용한다. RNN은 입력과 출력의 길이를 다르게 설계 ..
자연어/Basic
2022. 2. 14. 22:38