일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- 인공지능
- nlp
- 인공지능 신뢰성
- cnn
- fairness
- ML
- Tokenization
- ChatGPT
- GPT-3
- MLOps
- trustworthiness
- AI Fairness
- 지피티
- 머신러닝
- Bert
- XAI
- gpt2
- word2vec
- DevOps
- 트랜스포머
- 자연어
- 케라스
- GPT
- Transformer
- 신뢰성
- 딥러닝
- 챗지피티
- 설명가능성
- 챗GPT
- Ai
Archives
- Today
- Total
목록테일러 급수 (1)
research notes
테일러 급수(Taylor Series)
테일러 급수란 어떤 함수를 다항식으로 근사하는 방법이며 아래식은 임의의 점 a에서의 테일러 급수를 나타낸다. 항이 많아질수록 근사의 정확도가 높아지며 테일러 급수에서 주의해야 될 사항은 좌변과 우변이 모든 x에 대해 같은 것이 아니라 x의 값이 a 근처에서만 성립한다는 점이다. 즉, x가 a에서 멀어지면 멀어질수록 오차가 커진다. 또한 a=0일 때의 테일러 급수를 매클로린 전개(Maclaurin's series)라고 한다. 아래 그림은 y=f(x)를 x의 2차 함수로 근사한 것이며, 근사한 2차 함수는 a에서 y=f(x)에 접하는 곡선이 된다. References: [1] 밑바닥부터 시작하는 딥러닝 3, 사이토 고키, 한빛미디어
인공지능 수학/미분적분
2022. 5. 22. 16:04