일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- fairness
- Bert
- 설명가능성
- gpt2
- nlp
- cnn
- 자연어
- GPT-3
- 지피티
- MLOps
- 케라스
- trustworthiness
- Transformer
- Tokenization
- GPT
- ML
- 인공지능 신뢰성
- 인공지능
- Ai
- 딥러닝
- 신뢰성
- 챗지피티
- 트랜스포머
- 머신러닝
- DevOps
- 챗GPT
- ChatGPT
- word2vec
- AI Fairness
- XAI
Archives
- Today
- Total
목록feature scaling (1)
research notes
피처 스케일링(Feature scaling)
데이터 세트의 각 feature 값 범위가 크게 다를 경우 학습시에 손실함수가(loss function) 제대로 동작하지 않을 수 있으며, 경사하강법이(gradient descent) 피쳐 스케일링을 사용하지 않을 때보다 훨씬 빠르게 수렴하기 때문에 피쳐 스케일링 사용이 권고된다. e.g.) x1 = size (0-2000 feet), x2 = number of bedrooms (1-5) 해당 feature 값의 범위에서 생성된 손실함수의 등고선을 분석해보면 큰 범위 차이로 인해 세로로 크고 얇은 모양을 나타낸다. 이런 종류의 손실함수에서 경사하강법을 실행하면 전역 최소값을(global minimum) 찾는 데 오랜 시간이 걸릴 수 있다. *** 표준화 및 정규화 *** 표준화(Standardizatio..
머신러닝/ML basic
2022. 8. 21. 11:55