일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 트랜스포머
- Ai
- 지피티
- Tokenization
- Bert
- Transformer
- ML
- cnn
- word2vec
- DevOps
- AI Fairness
- XAI
- MLOps
- 인공지능
- trustworthiness
- 챗GPT
- GPT
- 자연어
- nlp
- 챗지피티
- 딥러닝
- gpt2
- 케라스
- 설명가능성
- fairness
- 인공지능 신뢰성
- 신뢰성
- GPT-3
- ChatGPT
- 머신러닝
Archives
- Today
- Total
research notes
테일러 급수(Taylor Series) 본문
반응형
테일러 급수란 어떤 함수를 다항식으로 근사하는 방법이며 아래식은 임의의 점 a에서의 테일러 급수를 나타낸다.
항이 많아질수록 근사의 정확도가 높아지며 테일러 급수에서 주의해야 될 사항은 좌변과 우변이 모든 x에 대해 같은 것이 아니라 x의 값이 a 근처에서만 성립한다는 점이다. 즉, x가 a에서 멀어지면 멀어질수록 오차가 커진다.
또한 a=0일 때의 테일러 급수를 매클로린 전개(Maclaurin's series)라고 한다.
아래 그림은 y=f(x)를 x의 2차 함수로 근사한 것이며, 근사한 2차 함수는 a에서 y=f(x)에 접하는 곡선이 된다.
References:
[1] 밑바닥부터 시작하는 딥러닝 3, 사이토 고키, 한빛미디어
반응형
'인공지능 수학 > 미분적분' 카테고리의 다른 글
오차역전파(Backpropagation)-2 (0) | 2022.06.12 |
---|---|
오차역전파(Backpropagation)-1 (0) | 2022.06.12 |
적분(integral) 정리 (0) | 2022.06.01 |
Comments