일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- nlp
- DevOps
- word2vec
- GPT-3
- ChatGPT
- 챗GPT
- XAI
- Ai
- trustworthiness
- MLOps
- 신뢰성
- gpt2
- 지피티
- ML
- fairness
- 트랜스포머
- AI Fairness
- 설명가능성
- 케라스
- Transformer
- 머신러닝
- Tokenization
- 인공지능
- 자연어
- cnn
- GPT
- Bert
- 인공지능 신뢰성
- 챗지피티
- 딥러닝
Archives
- Today
- Total
목록explainabe ai (1)
research notes
Image-specific Saliency
1. Image-specific saliency 개요 컨볼루션 신경망의 attribution을 보여주기 위한 대표적인 수단이 ‘Saliency Map(현저성 맵)’이다. 보통 Saliency Map은 이미지 상의 두드러진 부분을 지칭하나, 컨볼루션 신경망의 예측 결과에 대한 설명의 맥락에서는 예측 결과를 이끌어낸 이미지 상의 주요한 부분을 표현하기 위한 목적으로 생성된다. 컨볼루션 신경망의 예측 결과로부터 Saliency Map을 도출하기 위한 가장 간단한 방법은, 예측 클래스의 입력 이미지 X에 대한 gradient ∂yc/∂X를(기여도) 계산하는 것이다. 2. Image-specific saliency 알고리즘 정리 Pixel들을 rank시켜 각 픽셀이 예측에 얼마나 영향을 주었는지 판단을 하기 위해..
인공지능 신뢰성/eXplainable AI(XAI)
2022. 2. 22. 12:59