일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- XAI
- word2vec
- 인공지능
- Tokenization
- MLOps
- GPT
- nlp
- 케라스
- DevOps
- 지피티
- ML
- ChatGPT
- 머신러닝
- 설명가능성
- gpt2
- 챗지피티
- 신뢰성
- trustworthiness
- cnn
- 딥러닝
- Transformer
- AI Fairness
- Bert
- 트랜스포머
- 자연어
- 챗GPT
- Ai
- 인공지능 신뢰성
- fairness
- GPT-3
Archives
- Today
- Total
목록편미분 (1)
research notes
오차역전파(Backpropagation)-2
신경망 학습에 경사하강법을 사용하는 방법을 알아보기 위해 하나의 입력층, 은닉층, 출력층을 사용해 가장 단순한 신경망부터 시작 조금 더 복잡한 시나리오 구성을 위해 linear combination 및 activation을 추가하였으며, 순방향 전파 단계는(forwarded propagation) 단순히 하나의 출력이 다음 층의 입력으로 사용되는 것을 쉽게 알 수 있다. 신경망의 출력과(predict) 목표(target) 간의 차이를 최소화 하기 위해 모델의 각 매개변수가(가중치, weight) 오차함수의 결과에 얼마나 영향력을 미치는지 확인 후 해당 값을 이용해 반복적으로 경사하강법을 사용하여 가중치를 업데이트 한다. 오차함수에 대한 각 가중치의 영향력은 편미분 계산을 통해 확인할 수 있다. 아래 공식..
인공지능 수학/미분적분
2022. 6. 12. 15:23