일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- GPT
- word2vec
- 설명가능성
- GPT-3
- fairness
- XAI
- 신뢰성
- 챗GPT
- Transformer
- 딥러닝
- Ai
- ChatGPT
- Tokenization
- 케라스
- cnn
- 자연어
- gpt2
- ML
- nlp
- 지피티
- 머신러닝
- 인공지능
- 챗지피티
- trustworthiness
- 트랜스포머
- DevOps
- AI Fairness
- Bert
- MLOps
- 인공지능 신뢰성
Archives
- Today
- Total
목록해석가능성 (1)
research notes
Interpretable Machine Learning 기술 분류
들어가기전에... - 화이트 박스 모델은 설계상 설명이 가능하다. 따라서 설명을 위한 추가 작업이 필요하지 않다. - 블랙박스 모델은 자체적으로 설명할 수 없다. 따라서 블랙박스 모델을 설명하려면 모델의 내부 논리 또는 출력에서 결정에 대한 이유를 추출하기 위한 여러 테크닉을 활용 해야한다. Interpretable Machine Learning (IML) 기술은 크게 3가지 관점에서 분류 할 수 있다. (Complexity, Scope, Dependency) 관점 분류 분류 설명 Complexity Intrinsic 내재적으로 해석력을 확보하고 있는 머신러닝 모델을 ‘intrinsic(본래 갖추어진)’하다고 지칭한다. (e.g. Decision Tree) Post-hoc 모델 자체가 해석력을 지니지 않..
인공지능 신뢰성/eXplainable AI(XAI)
2022. 1. 30. 20:51