일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- ChatGPT
- cnn
- Tokenization
- 인공지능
- 자연어
- MLOps
- 머신러닝
- AI Fairness
- XAI
- Bert
- 인공지능 신뢰성
- ML
- 챗GPT
- 케라스
- 신뢰성
- 딥러닝
- fairness
- 챗지피티
- trustworthiness
- 지피티
- GPT
- 설명가능성
- 트랜스포머
- Transformer
- gpt2
- GPT-3
- word2vec
- Ai
- nlp
- DevOps
Archives
- Today
- Total
목록shap (1)
research notes
SHAP (SHapley Additive exPlanations)
1. SHAP 개요 SHAP(SHapley Additive exPlanations)는 머신러닝 모델의 출력을 설명하기 위한 협력 게임 이론에 기반한 접근법이며 SHAP value를 통해 feature importance를 파악할 수 있다. ** A Unified Approach to Interpreting Model Predictions 논문 참조 ** 2. Additive Feature Attribution Method 선형회귀나 결정나무 같은 알고리즘은 그 자체로 출력 결과에 대한 설명이 가능하나, 앙상블 방식 혹은 딥러닝 등의 복잡한 모델의 경우는 블랙박스 특성상 설명하기가 매우 힘들다. 따라서, 복잡한 구조의 모델을 설명하기 위해서는 보다 단순한 모델을 활용하여 기존 모델을(original mod..
인공지능 신뢰성/eXplainable AI(XAI)
2022. 3. 16. 22:44