일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- 지피티
- MLOps
- 머신러닝
- 챗GPT
- trustworthiness
- DevOps
- Bert
- XAI
- 챗지피티
- gpt2
- Transformer
- GPT-3
- word2vec
- 인공지능 신뢰성
- 딥러닝
- ML
- ChatGPT
- 신뢰성
- AI Fairness
- 설명가능성
- Tokenization
- Ai
- 케라스
- nlp
- cnn
- 자연어
- fairness
- 트랜스포머
- 인공지능
- GPT
Archives
- Today
- Total
research notes
테일러 급수(Taylor Series) 본문
728x90
테일러 급수란 어떤 함수를 다항식으로 근사하는 방법이며 아래식은 임의의 점 a에서의 테일러 급수를 나타낸다.
항이 많아질수록 근사의 정확도가 높아지며 테일러 급수에서 주의해야 될 사항은 좌변과 우변이 모든 x에 대해 같은 것이 아니라 x의 값이 a 근처에서만 성립한다는 점이다. 즉, x가 a에서 멀어지면 멀어질수록 오차가 커진다.
또한 a=0일 때의 테일러 급수를 매클로린 전개(Maclaurin's series)라고 한다.
아래 그림은 y=f(x)를 x의 2차 함수로 근사한 것이며, 근사한 2차 함수는 a에서 y=f(x)에 접하는 곡선이 된다.
References:
[1] 밑바닥부터 시작하는 딥러닝 3, 사이토 고키, 한빛미디어
728x90
'인공지능 수학 > 미분적분' 카테고리의 다른 글
오차역전파(Backpropagation)-2 (0) | 2022.06.12 |
---|---|
오차역전파(Backpropagation)-1 (0) | 2022.06.12 |
적분(integral) 정리 (0) | 2022.06.01 |
Comments