일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- 트랜스포머
- Ai
- Bert
- nlp
- 지피티
- 인공지능 신뢰성
- ML
- XAI
- AI Fairness
- 딥러닝
- DevOps
- 챗지피티
- 인공지능
- gpt2
- Tokenization
- cnn
- Transformer
- trustworthiness
- GPT
- MLOps
- 챗GPT
- 자연어
- 설명가능성
- GPT-3
- 케라스
- ChatGPT
- 머신러닝
- 신뢰성
- word2vec
- fairness
- Today
- Total
research notes
Gradient-Class Activation Map(Grad-CAM) 본문
1. Limitation of Class Activation Map (CAM)
CAM은 간단히 계산할 수 있는 유용한 툴이지만, Global Average Pooling layer를 사용해야만 한다는 한계점을 갖는다. 즉, GAP으로 대치하게되면 뒷부분을 다시 또 fine tuning 해야하는 한계점이 있다. 따라서, 이번 논문에서 제시된 Grad-CAM은 GAP을 쓸 필요가 없다는 점에서(Fully-connected layer 사용가능) 일반화된 CAM (Generalized CAM) 이라고도 말할 수 있다.
2. Grad-CAM 알고리즘
Gard-CAM 수행
- 두 식의 차이점은 ReLU 함수가 추가되었다는 점과 w^ck가 a^ck로 변경되었다는 점이다.
- a^ck의 수식을 글로 풀어 설명해보면, k번째 feature map f_k(i,j)의 각 원소 i,j가 Output class c의 Sc에 주는 영향력의 평균이라고 말할 수 있다.
- 즉, CAM에서는 weight으로 주었던 각 feature map의 가중치를, Gradient로 대신 주었다고 생각하면 된다.
- Gradient의 픽셀별 평균값인 a^ck 를 각 feature map f_k(i ,j) 에 곱해 heatmap을 만든다.
- 그리고 마찬가지로 pixel-wise sum을 한 후, ReLU 함수를 적용해 양의 가중치를 갖는 (중요하게 여기는) 부분을 골라내면 Grad-CAM이 된다.
- CAM 계산 개요도 ①
3. Grad-CAM Summary
Grad-CAM은 클래스를 구분하고 이미지의 예측 영역을 국소화하는데는 뛰어나나 Guided backpropagation, Deconvolution과 같이 세밀한 부분을 강조하는 기능은 부족하다. 예를 들어, 그림의 (c)와 같이 tiger cat의 위치를 localization하여 표현할 수 있으나 모델이 왜 이 특정 사례를 'tirger cat'으로 예측하는지 명확하지 않다.
이러한 문제점을 해결하기 위하여 논문에서는 ‘Grad-CAM’에 명확한 이미지 윤곽을 리턴하는 ‘guided backpropagation’의 장점을 접목한 개념을 제시하였다 (Guided Grad-CAM). 따라서, local 한 특성을 보여주는 Grad-CAM과 Specific한 특성을 보여주는 Guided backpropagation을 pixel-wise multiplication하게되면, Local+Specific 특징을 모두 갖는 Guided Grad-CAM을(d, j) 얻을 수 있다.
References:
[1] http://dmqm.korea.ac.kr/activity/seminar/274
[2] https://tyami.github.io/deep learning/CNN-visualization-Grad-CAM/
[3] Selvaraju, Ramprasaath R., et al. "Grad-cam: Visual explanations from deep networks via gradient-based localization." Proceedings of the IEEE international conference on computer vision. 2017.
'인공지능 신뢰성 > eXplainable AI(XAI)' 카테고리의 다른 글
LIME (Linear Interpretable Model-agnostic Explanation) (0) | 2022.02.26 |
---|---|
Image-specific Saliency (0) | 2022.02.22 |
Class Activation Map (CAM) (0) | 2022.02.22 |
Interpretable Machine Learning 기술 분류 (0) | 2022.01.30 |
Interpretability and Explainablity 차이 (0) | 2022.01.28 |